0
本文作者: 奕欣 | 2018-04-20 10:15 | 專題:IJCAI 2018 |
雷鋒網(wǎng) AI 科技評(píng)論按:本文經(jīng)微信公眾號(hào)“騰訊知文”授權(quán)轉(zhuǎn)載。
備受關(guān)注的人工智能領(lǐng)域頂級(jí)國(guó)際會(huì)議 IJCAI,2018 年將于 7 月 13 日至 19 日在瑞典斯德哥爾摩舉行。IJCAI-ECAI 2018, the27th International Joint Conference on Artificial Intelligence and the 23rd European Conference on Artificial Intelligence 是國(guó)際 AI 領(lǐng)域研究?jī)?nèi)容最為全面、最具影響力的頂級(jí)學(xué)術(shù)會(huì)議之一。在近日揭曉 2018 年收錄論文名單中,騰訊知文團(tuán)隊(duì)有 3 篇一作長(zhǎng)文被錄取,我們將對(duì)文章進(jìn)行簡(jiǎn)要解讀,歡迎交流討論。
騰訊知文是 SNG 數(shù)據(jù)中心的 NLP 團(tuán)隊(duì),目前專注于問答與對(duì)話領(lǐng)域,服務(wù)與支持的產(chǎn)品包括騰訊云小微機(jī)器人、騰訊云金融智能客服、騰訊云內(nèi)容理解等?;谡Z(yǔ)義分析、知識(shí)計(jì)算、機(jī)器閱讀理解等技術(shù),知文團(tuán)隊(duì)在語(yǔ)言智能的求知之路持續(xù)探索,同時(shí)通過騰訊云提供專業(yè)的產(chǎn)品與服務(wù),為更多的業(yè)務(wù)實(shí)踐賦能 AI。知文致力于打造業(yè)界下一代智能問答平臺(tái),深度融合 KBQA、DocQA、TaskQA 等多種問答模式。問答是搜索的進(jìn)化形式,加入我們,加入 1998 年的 Google。
1.PLASTIC:基于生成對(duì)抗網(wǎng)絡(luò)調(diào)節(jié)推薦系統(tǒng)里全局和局部信息的互補(bǔ)性
PLASTIC: PrioritizeLong and Short-term Information in Top-n Recommendation using AdversarialTraining
本文由騰訊知文團(tuán)隊(duì)與中科院深圳先進(jìn)技術(shù)研究院等高校聯(lián)合完成。傳統(tǒng)的基于協(xié)同過濾的推薦系統(tǒng)是認(rèn)為用戶偏好和電影屬性都是靜態(tài)的,但他們實(shí)質(zhì)是隨著用時(shí)間的推移而緩慢變化的。例如,一個(gè)電影的受歡迎程度可能由外部事件(如獲得奧斯卡獎(jiǎng))所改變。另一方面,隨著深度學(xué)習(xí)應(yīng)用的爆發(fā)式發(fā)展,基于深度學(xué)習(xí)的推薦系統(tǒng)越來(lái)越引發(fā)大家的關(guān)注。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)理論上能夠有效地對(duì)用戶偏好和物品屬性的動(dòng)態(tài)性進(jìn)行建模,基于當(dāng)前的趨勢(shì),預(yù)測(cè)來(lái)的行為。為了有效地利用傳統(tǒng)協(xié)同過濾推薦技術(shù)(i.e., 矩陣分解)和深度學(xué)習(xí)方法(i.e., 循環(huán)神經(jīng)網(wǎng)絡(luò))各自的優(yōu)點(diǎn),捕獲用戶和電影之間的長(zhǎng)期(全局)和短期(局部)關(guān)聯(lián),本文主要研究和探索基于生成對(duì)抗網(wǎng)絡(luò)(GAN)調(diào)節(jié)矩陣分解(Matrix Factorization, MF)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)在推薦系統(tǒng)上的互補(bǔ)性。
2. 基于主題模型和強(qiáng)化學(xué)習(xí)的文本摘要
A ReinforcedTopic-Aware Convolutional Sequence-to-Sequence Model for Abstractive TextSummarization
本文由騰訊知文團(tuán)隊(duì)與蘇黎世聯(lián)邦理工學(xué)院(ETH)、美國(guó)哥倫比亞大學(xué)、騰訊 AI lab 聯(lián)合完成。自動(dòng)文本摘要方法一般有兩種類型,分別為提取式和總結(jié)式。提取式方法通過選擇重要的文本片段來(lái)生成摘要,更具可讀性??偨Y(jié)式方法需要先「理解」文檔,然后再組織并生成文本摘要,更靈活,目前更受關(guān)注,但可控制性和相關(guān)性有所欠缺。另一方面,近年來(lái)廣泛應(yīng)用的傳統(tǒng)基于 RNN 的文本摘要模型存在 exposure bias 和難以并行化的問題。針對(duì)以上問題,該研究工作提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的總結(jié)式文本摘要生成方法,并結(jié)合主題模型的注意力機(jī)制,利用強(qiáng)化學(xué)習(xí)方法進(jìn)行優(yōu)化。卷積神經(jīng)網(wǎng)絡(luò)具有可并行化的特點(diǎn),可以提高訓(xùn)練速度。這是首次將基于主題模型的注意力機(jī)制引入自動(dòng)文本摘要的生成,可以提高摘要結(jié)果的信息相關(guān)性和多樣性。另一方面,self-critical 強(qiáng)化學(xué)習(xí)方法的引入使模型可以針對(duì)摘要的評(píng)價(jià)指標(biāo)進(jìn)行優(yōu)化,緩解訓(xùn)練和預(yù)測(cè)過程的 exposure bias。
3. 基于多任務(wù)學(xué)習(xí)的圖像描述自動(dòng)生成
A Multi-task LearningApproach for Image Captioning
本文由騰訊知文團(tuán)隊(duì)與中科院深圳先進(jìn)技術(shù)研究院、豐田工業(yè)大學(xué)芝加哥分校(TTIC)等高校聯(lián)合完成。傳統(tǒng)的基于編解碼器的圖像描述任務(wù)沒有識(shí)別和定位多物體的能力,生成的文本經(jīng)常遇到語(yǔ)言學(xué)問題,比如缺少成分、語(yǔ)法錯(cuò)誤和論點(diǎn)矛盾等。特別是語(yǔ)言學(xué)問題,目前的測(cè)量方法是無(wú)法給出公正評(píng)價(jià)的。例如,「a group of people standing next to a.「和「agroup of people standing next a fire truck.」兩個(gè)句子各項(xiàng)指標(biāo)的分?jǐn)?shù)差異不顯著,但前者缺少名詞性補(bǔ)語(yǔ),讓讀者難以理解。本文采用多任務(wù)學(xué)習(xí)方法共享編解碼器,同時(shí)提升編碼器對(duì)物體的識(shí)別能力,以及減少解碼器在生成文本過程中出現(xiàn)的語(yǔ)法錯(cuò)誤。從離線、線上榜單和人工評(píng)測(cè)的結(jié)果來(lái)看,本文提出的方法有不錯(cuò)的性能表現(xiàn)。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章