0
本文作者: AI研習(xí)社 | 2019-12-18 17:07 |
Paper 研習(xí)社新功能上線啦!
大家除了瀏覽或者參與論文推薦,還可以一鍵打包下載論文合集,針對(duì)長(zhǎng)期更新的論文合集,你能通過(guò)系統(tǒng)消息第一時(shí)間收到更新的通知,讓你的科研的道路上,絕不慢人一步!
點(diǎn)擊鏈接迅速跳轉(zhuǎn)論文集下載界面:
https://paper.yanxishe.com/library?from=leiphone
「本周論文推薦精選」是 Paper 研習(xí)社推出的全新欄目,展現(xiàn)社友們?cè)谘辛?xí)論文的過(guò)程中,推薦自己所閱讀到的優(yōu)秀論文,幫助大家一起學(xué)習(xí)、討論每個(gè)領(lǐng)域最新、最精彩的學(xué)術(shù)論文。
①
#計(jì)算語(yǔ)言學(xué)#
《一種微博事件檢測(cè)中聯(lián)合關(guān)鍵詞發(fā)現(xiàn)和期望估計(jì)的方法》
推薦理由:
諸如Twitter之類的微博平臺(tái)越來(lái)越多地用于事件檢測(cè)?,F(xiàn)有方法主要使用機(jī)器學(xué)習(xí)模型,并依賴與事件相關(guān)的關(guān)鍵字來(lái)收集數(shù)據(jù)以進(jìn)行模型訓(xùn)練。這些方法對(duì)包含關(guān)鍵字的相關(guān)微博的分布進(jìn)行了強(qiáng)有力的假設(shè)-稱為分布的期望-并將其用作模型訓(xùn)練期間的后驗(yàn)正則化參數(shù)。
但是,由于這些方法無(wú)法可靠地估計(jì)關(guān)鍵字的信息性及其對(duì)模型訓(xùn)練的期望,因此受到了限制。本文介紹了一種Human-AI循環(huán)方法,以在發(fā)現(xiàn)模型預(yù)期信息的同時(shí)共同發(fā)現(xiàn)信息性關(guān)鍵詞。
作者的方法迭代地利用人群來(lái)估計(jì)關(guān)鍵字的特定期望以及人群與模型之間的分歧,以發(fā)現(xiàn)最有利于模型訓(xùn)練的新關(guān)鍵字。這些關(guān)鍵字及其期望不僅可以改善結(jié)果性能,還可以使模型訓(xùn)練過(guò)程更加透明。作者在多個(gè)真實(shí)數(shù)據(jù)集上從準(zhǔn)確性和可解釋性方面經(jīng)驗(yàn)證明了其方法的優(yōu)點(diǎn),并表明其方法將現(xiàn)有技術(shù)水平提高了24.3%。
論文鏈接:
https://paper.yanxishe.com/review/7405?from=leiphone
推薦人:IloveNLP(華東師范大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系,中國(guó)科學(xué)院大學(xué) 客座學(xué)生)
②
#知識(shí)圖譜#
《用于圖像超分辨率的高效剩余稠密塊搜索》
推薦理由:
知識(shí)圖是各種自然語(yǔ)言處理應(yīng)用的有用資源。以前的KG完成方法需要大量的訓(xùn)練實(shí)例。實(shí)際情況是,對(duì)于大多數(shù)關(guān)系,很少有實(shí)體對(duì)可用。現(xiàn)有的一次學(xué)習(xí)工作限制了對(duì)少量場(chǎng)景的方法泛化,沒(méi)有充分利用監(jiān)督信息;然而,目前對(duì)小丸KG完井的研究還不多。
本文提出了一個(gè)新的少鏡頭關(guān)系學(xué)習(xí)模型(FSRL),旨在發(fā)現(xiàn)新的關(guān)系與少鏡頭參考的事實(shí)。FSRL可以有效地從異構(gòu)的圖結(jié)構(gòu)中獲取知識(shí),聚合少量引用的表示,并為每個(gè)關(guān)系匹配相似的實(shí)體對(duì)引用集。在兩個(gè)公共數(shù)據(jù)集上的大量實(shí)驗(yàn)表明,F(xiàn)SRL的性能優(yōu)于最先進(jìn)的技術(shù)。
https://paper.yanxishe.com/review/7295?from=leiphone
推薦人:明明知道(碁震 數(shù)據(jù)工程師)
③
#計(jì)算機(jī)視覺(jué)#
《AI雷達(dá)傳感器:基于生成對(duì)抗網(wǎng)絡(luò)創(chuàng)建雷達(dá)深度探測(cè)儀圖像》
推薦理由:
這篇論文要解決的是雷達(dá)圖像生成的問(wèn)題。
雷達(dá)數(shù)據(jù)集的收集非常昂貴,例如在南北極的野外工作中。這篇論文首次提出了基于生成對(duì)抗網(wǎng)絡(luò)創(chuàng)建雷達(dá)測(cè)深儀影像的想法。具體來(lái)說(shuō),這篇論文評(píng)估了CycleGAN合成雷達(dá)圖像用于數(shù)據(jù)增強(qiáng)的性能,并且對(duì)合成對(duì)合成數(shù)據(jù)以及真實(shí)和合成數(shù)據(jù)的不同組合測(cè)試了最新輪廓檢測(cè)算法的質(zhì)量。這篇論文表明,由生成對(duì)抗網(wǎng)絡(luò)生成的合成雷達(dá)圖像可與真實(shí)圖像結(jié)合使用,以進(jìn)行數(shù)據(jù)增強(qiáng)和深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練。但是,GAN生成的合成圖像不能僅用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)(合成訓(xùn)練和實(shí)測(cè)),因?yàn)樗鼈儾荒苣M所有雷達(dá)特征,例如噪聲或多普勒效應(yīng)。
這篇論文首次將生成對(duì)抗網(wǎng)絡(luò)引入雷達(dá)深度探測(cè)儀圖像相關(guān)的領(lǐng)域中,并且展示了一些正面的應(yīng)用結(jié)果,可以鼓勵(lì)后續(xù)的研究。
https://paper.yanxishe.com/review/7402?from=leiphone
推薦人:阿諾德?普里
④
#深度學(xué)習(xí)#
《轉(zhuǎn)移注意力機(jī)制適應(yīng)特定領(lǐng)域》
推薦理由:
1.主要解決問(wèn)題:
領(lǐng)域適應(yīng)方面的最新工作為不同領(lǐng)域建立了橋梁通過(guò)對(duì)抗性學(xué)習(xí)領(lǐng)域不變表示不能由域區(qū)分符區(qū)分?,F(xiàn)有的對(duì)抗域適應(yīng)方法主要是對(duì)齊源域和目標(biāo)域中的全局映像。但是,很明顯,并非圖像的所有區(qū)域都是可轉(zhuǎn)移的,而強(qiáng)制對(duì)齊不可轉(zhuǎn)移的區(qū)域可能會(huì)導(dǎo)致負(fù)轉(zhuǎn)移。此外,一些圖像在各個(gè)域之間有很大的不同,導(dǎo)致圖像級(jí)可傳遞性。
2.創(chuàng)新點(diǎn):
提出了領(lǐng)域適應(yīng)的可轉(zhuǎn)移注意力(TADA),重點(diǎn)是可轉(zhuǎn)移區(qū)域或圖像上的適應(yīng)模型。我們實(shí)現(xiàn)了兩種互補(bǔ)的可轉(zhuǎn)移注意力:由多個(gè)區(qū)域級(jí)別產(chǎn)生的可轉(zhuǎn)移的本地注意力域標(biāo)識(shí)符以突出顯示可轉(zhuǎn)讓區(qū)域,以及由單個(gè)圖像級(jí)別產(chǎn)生的可轉(zhuǎn)移的全球注意力域識(shí)別符,以突出顯示可傳輸?shù)膱D像。大量實(shí)驗(yàn)驗(yàn)證了我們提出的模型已經(jīng)超過(guò)標(biāo)準(zhǔn)域適應(yīng)數(shù)據(jù)集的最新結(jié)果。換句話說(shuō),每個(gè)圖像作為一個(gè)整體在不利用的情況下被認(rèn)為是可以轉(zhuǎn)移的還是不可以轉(zhuǎn)移的其細(xì)粒度的結(jié)。更多現(xiàn)實(shí)的考慮是,圖像的豐富結(jié)構(gòu)應(yīng)該進(jìn)一步利用以實(shí)現(xiàn)細(xì)粒度的傳輸。我們也應(yīng)該能夠推斷出圖像是可轉(zhuǎn)讓的,而不能轉(zhuǎn)讓。這種觀察是出于人類學(xué)習(xí)的動(dòng)機(jī):一個(gè)人學(xué)會(huì)在圖像背后傳遞知識(shí),他將主要參加類似的結(jié)構(gòu)(在其他字,可以轉(zhuǎn)移)到他感興趣的目標(biāo)任務(wù)。就這樣人類的注意力機(jī)制不僅僅是關(guān)注對(duì)象,而是更多地關(guān)注對(duì)推理其特定目標(biāo)任務(wù)有用的對(duì)象。
3.未來(lái)工作(影響)
這種研究了兩種類型的互補(bǔ)可轉(zhuǎn)移注意力:由多個(gè)區(qū)域級(jí)域標(biāo)識(shí)符生成的局部注意力以突出可轉(zhuǎn)移區(qū)域,以及由單個(gè)圖像級(jí)域標(biāo)識(shí)符生成的全局注意力以突出可轉(zhuǎn)移圖像。 綜合實(shí)驗(yàn)表明,該方法的性能優(yōu)于現(xiàn)有技術(shù)是在標(biāo)準(zhǔn)域適應(yīng)數(shù)據(jù)集上得出的。
論文鏈接:
https://paper.yanxishe.com/review/7294?from=leiphone
推薦人:hm(香港城市大學(xué) 計(jì)算機(jī)科學(xué))
⑤
#知識(shí)圖譜# #計(jì)算語(yǔ)言學(xué)#
《基于超平面翻譯的知識(shí)圖嵌入》
推薦理由:
核心問(wèn)題:雖然TransE模型具有訓(xùn)練速度快、易于實(shí)現(xiàn)等優(yōu)點(diǎn),但是它不能夠解決多對(duì)一和一對(duì)多關(guān)系的問(wèn)題。以多對(duì)一關(guān)系為例,固定r和t,TransE模型為了滿足三角閉包關(guān)系,訓(xùn)練出來(lái)的頭節(jié)點(diǎn)的向量會(huì)很相似創(chuàng)新點(diǎn):本文提出一種將頭尾節(jié)點(diǎn)映射到關(guān)系平面的TransH模型,能夠很好地解決這一問(wèn)題。
論文鏈接:
https://paper.yanxishe.com/review/7407?from=leiphone
推薦人:magic(燕山大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù))
???
除了上述的的五篇精選論文推薦,我們還為你精心準(zhǔn)備了可以一鍵下載的論文集:
NeurIPS 2019 1422篇 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1113?from=leiphone
NeurIPS 2019 Oral 36篇
下載地址:https://paper.yanxishe.com/packages/290?from=leiphone
NIPS2019 深度強(qiáng)化學(xué)習(xí)論文集 61篇
下載地址:https://paper.yanxishe.com/packages/289?from=leiphone
ICCV 2019 | 最新公開(kāi)的51篇 Oral Paper 合集
下載地址:https://www.yanxishe.com/resourceDetail/1010?from=leiphone
EMNLP 2019 | 10篇論文實(shí)現(xiàn)代碼合集及下載
下載地址:https://www.yanxishe.com/resourceDetail/1013?from=leiphone
NeurIPS 2019 GNN 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1006?from=leiphone
AAAI (1996-2019)歷年最佳論文合集
下載地址:https://www.yanxishe.com/resourceDetail/991?from=leiphone
快來(lái)下載試試吧!
想要閱讀更多精彩論文?
點(diǎn)擊閱讀原文跳轉(zhuǎn) paper.yanxishe.com
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。