0
本文作者: AI研習(xí)社 | 2019-12-11 17:00 |
Paper 研習(xí)社新功能上線啦!
大家除了瀏覽或者參與論文推薦,還可以一鍵打包下載論文合集,針對(duì)長(zhǎng)期更新的論文合集,你能通過(guò)系統(tǒng)消息第一時(shí)間收到更新的通知,讓你的科研的道路上,絕不慢人一步!
點(diǎn)擊鏈接迅速跳轉(zhuǎn)論文集下載界面:
https://paper.yanxishe.com/library
「本周論文推薦精選」是 Paper 研習(xí)社推出的全新欄目,展現(xiàn)社友們?cè)谘辛?xí)論文的過(guò)程中,推薦自己所閱讀到的優(yōu)秀論文,幫助大家一起學(xué)習(xí)、討論每個(gè)領(lǐng)域最新、最精彩的學(xué)術(shù)論文。
①
#計(jì)算語(yǔ)言學(xué)#
《選擇,回答和解釋:可解釋的對(duì)多文檔多跳閱讀理解模型》
推薦理由:
具有可解釋性的多個(gè)文檔多跳閱讀理解是一個(gè)具有挑戰(zhàn)性的問(wèn)題,因?yàn)樗髮?duì)多個(gè)信息源進(jìn)行推理,并通過(guò)提供支持證據(jù)來(lái)解釋模型答案的預(yù)測(cè)。
在本文中,作者提出了一種有效且可解釋的選擇、回答和解釋(SAE)系統(tǒng),以解決多文檔閱讀理解問(wèn)題。我們的系統(tǒng)首先過(guò)濾出與答案無(wú)關(guān)的文檔,從而減少了干擾信息的數(shù)量。這是通過(guò)訓(xùn)練了一個(gè)文檔過(guò)濾器而實(shí)現(xiàn)的,該過(guò)濾器通過(guò)pairwise排序模型學(xué)習(xí)。然后將選定的與答案相關(guān)的文檔輸入模型,以共同預(yù)測(cè)答案和支持的事實(shí)語(yǔ)句。在token級(jí)別(用于答案預(yù)測(cè))和句子級(jí)別(用于支撐事實(shí)的預(yù)測(cè))通過(guò)多任務(wù)學(xué)習(xí)目標(biāo)對(duì)模型進(jìn)行了優(yōu)化,并且在這兩個(gè)任務(wù)之間使用注意力機(jī)制進(jìn)行交互。我們?cè)诰哂刑魬?zhàn)性的多跳閱讀理解數(shù)據(jù)集HotpotQA上進(jìn)行評(píng)估,與排行榜上的其他現(xiàn)有系統(tǒng)相比,我們提出的SAE系統(tǒng)在實(shí)現(xiàn)了頂級(jí)競(jìng)爭(zhēng)性能。
動(dòng)機(jī):現(xiàn)有的多文檔多跳問(wèn)題的QA方法中存在以下幾點(diǎn)問(wèn)題:1、很少有人關(guān)心答案預(yù)測(cè)的可解釋性:挑戰(zhàn)是多文檔多跳閱讀理解問(wèn)題的支撐證據(jù)可能會(huì)分散在很長(zhǎng)的文檔中或者多個(gè)文檔中。2、幾乎很少方法設(shè)計(jì)一個(gè)文檔過(guò)濾器來(lái)去除不相關(guān)文檔并減少所需要的信息:幾乎所有現(xiàn)有的方法都是直接在全部文檔拼接或分別單獨(dú)處理,但是事實(shí)上沒(méi)有考慮到大多數(shù)文檔和問(wèn)題是不相關(guān)的并不會(huì)幫助模型尋找答案。3、盡管有很多方法使用GNN在實(shí)體圖上進(jìn)行推理,但這只可能存在于任務(wù)中已經(jīng)預(yù)先定義好了一個(gè)實(shí)體集,否則需要借助NER工具來(lái)抽取實(shí)體,這會(huì)導(dǎo)致用圖推理產(chǎn)生冗余和噪聲,而且如果答案不是實(shí)體,還需要進(jìn)一步的處理。
做法:為了解決上述問(wèn)題,本文提出了一種SAE模型來(lái)解決多文檔多跳閱讀理解任務(wù),主要貢獻(xiàn)如下:1、設(shè)計(jì)了一個(gè)文檔選擇模塊,該模塊基于多頭自注意力機(jī)制捕獲不同文檔之間的交互信息,并設(shè)計(jì)了一個(gè)新穎的pair-wise排序損失函數(shù)加強(qiáng)模型準(zhǔn)確找出gold doc。2、模型能同時(shí)預(yù)測(cè)答案和支撐證據(jù)?;诰渥颖硎窘⒘硕嗵耐评韌raph,直接輸出支撐證據(jù)和答案。3、在GNN抽取句子表達(dá)時(shí)采用了一種混合注意力pooling的機(jī)制,注意力權(quán)重是由答案片段的logits和每個(gè)token自注意力機(jī)制的輸出進(jìn)行......(點(diǎn)擊下方鏈接查看全文)
PS.這篇論文推薦是上周熱點(diǎn)榜首,借此機(jī)會(huì)推薦給各位品讀。
論文鏈接:
https://paper.yanxishe.com/review/6374
推薦人:IloveNLP(華東師范大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系,中國(guó)科學(xué)院大學(xué) 客座學(xué)生)
②
#機(jī)器學(xué)習(xí)# #圖像處理#
《用于圖像超分辨率的高效剩余稠密塊搜索》
推薦理由:
盡管由于深度卷積神經(jīng)網(wǎng)絡(luò)的復(fù)興,單圖像超分辨率取得了顯著進(jìn)步,但深度學(xué)習(xí)方法在實(shí)踐中尤其是對(duì)于移動(dòng)設(shè)備面臨著計(jì)算和內(nèi)存消耗的挑戰(zhàn)。針對(duì)這個(gè)問(wèn)題,本文提出了一種高效的多目標(biāo)殘差密集塊搜索算法,用于尋找快速、輕量級(jí)、精確的超分辨率圖像網(wǎng)絡(luò)。
1、利用所提出的高效剩余稠密塊充分利用特征尺度的變化來(lái)加速超分辨網(wǎng)絡(luò)。該算法自動(dòng)搜索池和上采樣算子的位置。
2、在塊積分的引導(dǎo)下演化網(wǎng)絡(luò)結(jié)構(gòu),獲得精確的超分辨率網(wǎng)絡(luò)。
實(shí)驗(yàn)結(jié)果證明了所提出的搜索方法的有效性,發(fā)現(xiàn)的高效超分辨率模型的性能優(yōu)于目前最先進(jìn)的方法。
https://paper.yanxishe.com/review/6766
推薦人:明明知道(碁震 數(shù)據(jù)工程師)
③
#人工智能#
《用于交互式小說(shuō)的深度強(qiáng)化學(xué)習(xí)的算法改進(jìn)》
推薦理由:
基于文本的游戲是深度強(qiáng)化學(xué)習(xí)算法的一個(gè)挑戰(zhàn)領(lǐng)域。它們的狀態(tài)和動(dòng)作空間的組合性很大,它們的獎(jiǎng)勵(lì)函數(shù)很稀疏,并且它們只有部分是可觀察到的:主體通過(guò)文本反饋得知其動(dòng)作的結(jié)果。
在本文中,作者強(qiáng)調(diào)了最后這一點(diǎn),并考慮了設(shè)計(jì)可以僅從反饋中發(fā)揮作用的深度強(qiáng)化學(xué)習(xí)智能體。作者的設(shè)計(jì)認(rèn)可并利用了基于文本的游戲的結(jié)構(gòu)特征。
作者首先提出一種基于累積獎(jiǎng)勵(lì)的情境化機(jī)制,該機(jī)制簡(jiǎn)化了學(xué)習(xí)問(wèn)題并減輕了部分可觀察性。然后,根據(jù)Zahavy等人關(guān)于允許行為的想法,研究了依賴于大多數(shù)動(dòng)作在任何給定情況下都是無(wú)效的這一觀念的一些方法。作者在基于TextWorld框架的一系列基于文本的高難度的游戲以及標(biāo)志性游戲ZORK中對(duì)這些技術(shù)進(jìn)行了評(píng)估。從經(jīng)驗(yàn)上,作者發(fā)現(xiàn)這些技術(shù)提高了應(yīng)用于基于文本的游戲的基線深度強(qiáng)化學(xué)習(xí)代理的性能。 在也稱為交互式小說(shuō)(IF)的基于文本的游戲中,智能體通過(guò)自然語(yǔ)言界面與其環(huán)境進(jìn)行交互。 動(dòng)作由簡(jiǎn)短的文本命令組成,而觀察則是描述這些動(dòng)作結(jié)果的段落。 最近,交互式小說(shuō)已成為AI技術(shù)的重要挑戰(zhàn)(Atkinson等人2018),這在很大程度上是因?yàn)樵擃愋蛯⒆匀徽Z(yǔ)言與序列決策結(jié)合在一起......(點(diǎn)擊下方鏈接查看全文)
https://paper.yanxishe.com/review/6765
推薦人:IloveNLP(華東師范大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系,中國(guó)科學(xué)院大學(xué) 客座學(xué)生)
④
#圖像處理#
《任意姿勢(shì)下的無(wú)人監(jiān)督圖像合成》
推薦理由:
一 .可以使用GAN模型生成任意姿勢(shì)下的人的新圖像,該模型可以完全不受監(jiān)督的方式進(jìn)行訓(xùn)練。迄今為止,這僅是通過(guò)監(jiān)督解決了該問(wèn)題的最新技術(shù)。為了解決這一挑戰(zhàn),作者提出了一個(gè)新的框架,該框架通過(guò)優(yōu)化僅依賴于輸入圖像和渲染圖像的損失函數(shù)來(lái)規(guī)避訓(xùn)練數(shù)據(jù)的需求,旨在保留原始圖像的樣式和語(yǔ)義內(nèi)容。 DeepFashion [15]數(shù)據(jù)集上的定量和定性評(píng)估顯示了非常有希望的結(jié)果,即使對(duì)于與輸入姿勢(shì)有很大不同并且需要將圖像的大部分幻覺化的新的身體姿勢(shì)也是如此。將來(lái),作者計(jì)劃在野外無(wú)法監(jiān)督的其他數(shù)據(jù)集中(不僅是人類)進(jìn)一步開發(fā)他的方法 。
二 . 主要貢獻(xiàn):(loss funtion的設(shè)計(jì))
1. Image Adversarial Loss:即傳統(tǒng) GAN 的 loss; 2. Pose Loss:pose 差異,生成后的圖片再用 OpenPose 提取 pose 信息做差值; 3. Identity Loss:此為關(guān)鍵,又分為兩部分,分別是 content 和 style loss,其中 content 用于保證生成圖和原圖在某 pretrain model 生成的 feature map 一致, style 則是利用 Gram matrix 生成某種 feature map,然后作比對(duì)。
論文鏈接:
https://paper.yanxishe.com/review/6862
推薦人:hm(香港城市大學(xué) 計(jì)算機(jī)科學(xué))
⑤
#計(jì)算機(jī)視覺# #模式識(shí)別#
《基于AU感知注意的E2膠囊神經(jīng)網(wǎng)絡(luò)人臉表情識(shí)別》
推薦理由:
這篇論文要解決的是面部表情識(shí)別的問(wèn)題。
傳統(tǒng)的膠囊神經(jīng)網(wǎng)絡(luò)不能在膠囊間的動(dòng)態(tài)路由過(guò)程前有效提取特征。為了解決這個(gè)問(wèn)題,這篇論文提出一個(gè)名為E2-Capsnet的雙重增強(qiáng)膠囊神經(jīng)網(wǎng)絡(luò)。
E2-Capsnet利用膠囊間的動(dòng)態(tài)路由,并有兩種增強(qiáng)模塊:第一個(gè)模塊用到了使用動(dòng)作單元注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò),用來(lái)獲取面部的動(dòng)態(tài)區(qū)域;第二個(gè)模塊是多卷積層的膠囊網(wǎng)絡(luò)模塊,用來(lái)增強(qiáng)特征表示的能力。在RAF-DB和EmotioNet這兩個(gè)基準(zhǔn)數(shù)據(jù)集上的實(shí)驗(yàn)證明了E2-Capsnet的有效性。這篇論文的研究意義在于拓展了傳統(tǒng)的膠囊神經(jīng)網(wǎng)絡(luò),使得其在面部表情識(shí)別相關(guān)的問(wèn)題上展現(xiàn)了更多的應(yīng)用潛力。
論文鏈接:
https://paper.yanxishe.com/review/6761
推薦人:溫蒂?斯普林
???
除了上述的的五篇精選論文推薦,我們還為你精心準(zhǔn)備了可以一鍵下載的論文集:
NeurIPS 2019 1422篇 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1113
NeurIPS 2019 Oral 36篇
下載地址:https://paper.yanxishe.com/packages/290
NIPS2019 深度強(qiáng)化學(xué)習(xí)論文集 61篇
下載地址:https://paper.yanxishe.com/packages/289
ICCV 2019 | 最新公開的51篇 Oral Paper 合集
下載地址:https://www.yanxishe.com/resourceDetail/1010
EMNLP 2019 | 10篇論文實(shí)現(xiàn)代碼合集及下載
下載地址:https://www.yanxishe.com/resourceDetail/1013
NeurIPS 2019 GNN 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1006
AAAI (1996-2019)歷年最佳論文合集
下載地址:https://www.yanxishe.com/resourceDetail/991
快來(lái)下載試試吧!
想要閱讀更多精彩論文?
點(diǎn)擊閱讀原文跳轉(zhuǎn) paper.yanxishe.com
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。