0
本文作者: AI研習(xí)社 | 2020-02-26 16:07 |
用于語(yǔ)義場(chǎng)景完成的3D門控遞歸融合
用于大姿態(tài)人臉正面化的雙注意力GAN
Universal-RCNN:基于可轉(zhuǎn)移圖R-CNN的通用目標(biāo)檢測(cè)器
用于圖像深度估計(jì)的無(wú)監(jiān)督域自適應(yīng)
嵌套命名實(shí)體識(shí)別的神經(jīng)分層模型
論文名稱:3D Gated Recurrent Fusion for Semantic Scene Completion
作者: Liu Yu /Li Jie /Yan Qingsen /Yuan Xia /Zhao Chunxia /Reid Ian /Cadena Cesar
發(fā)表時(shí)間:2020/2/17
論文鏈接:https://paper.yanxishe.com/review/12074?from=leiphonecolumn_paperreview0226
推薦原因
這篇論文要解決的是語(yǔ)義場(chǎng)景補(bǔ)全任務(wù)中的數(shù)據(jù)融合問(wèn)題。
RGB圖像包含對(duì)象的紋理細(xì)節(jié),而深度圖像能捕獲與形狀補(bǔ)全任務(wù)具有高度相關(guān)性的幾何線索,因此同時(shí)使用RGB和深度圖像可以進(jìn)一步提高語(yǔ)義場(chǎng)景補(bǔ)全模型的精度。基于此,這篇論文提出了名為GRFNet的3D門控遞歸融合網(wǎng)絡(luò),該網(wǎng)絡(luò)可以自適應(yīng)地選擇并通過(guò)使用門和存儲(chǔ)模塊來(lái)融合深度圖像和RGB的相關(guān)信息。在單級(jí)融合的基礎(chǔ)上,這篇論文還進(jìn)一步提出了一種多級(jí)融合策略,可以對(duì)網(wǎng)絡(luò)中不同級(jí)之間的相關(guān)性進(jìn)行建模。在兩個(gè)基準(zhǔn)數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)證明了GRFNet在語(yǔ)義場(chǎng)景補(bǔ)全任務(wù)中進(jìn)行數(shù)據(jù)融合優(yōu)于現(xiàn)有的方法。
論文名稱:Dual-Attention GAN for Large-Pose Face Frontalization
作者: Yin Yu /Jiang Songyao /Robinson Joseph P. /Fu Yun
發(fā)表時(shí)間:2020/2/17
論文鏈接:https://paper.yanxishe.com/review/12073?from=leiphonecolumn_paperreview0226
推薦原因
這篇論文要解決的是人臉正面化的問(wèn)題。
人臉正面化為人臉數(shù)據(jù)的增強(qiáng)提供了一種有效的方法,進(jìn)一步提高了極端姿勢(shì)場(chǎng)景下的人臉識(shí)別性能。這篇論文提出了一種新的雙注意力生成對(duì)抗網(wǎng)絡(luò)(DA-GAN),通過(guò)在GAN訓(xùn)練過(guò)程中同時(shí)捕捉上下文相關(guān)性和局部一致性來(lái)實(shí)現(xiàn)真實(shí)感人臉正面化。DA-GAN包含一種基于自注意力的生成器,來(lái)集成具有遠(yuǎn)距離依賴性的局部特征以產(chǎn)生更好的特征表示和一個(gè)基于面部注意力的新型判別器,用于強(qiáng)調(diào)人臉區(qū)域的局部特征,從而增強(qiáng)了合成正面人臉的真實(shí)感。
論文名稱:Universal-RCNN: Universal Object Detector via Transferable Graph R-CNN
作者: Xu Hang /Fang Linpu /Liang Xiaodan /Kang Wenxiong /Li Zhenguo
發(fā)表時(shí)間:2020/2/18
論文鏈接:https://paper.yanxishe.com/review/12072?from=leiphonecolumn_paperreview0226
推薦原因
這篇論文要解決的是通用對(duì)象檢測(cè)的問(wèn)題。
這篇論文提出了一種名為Universal-RCNN的新的通用對(duì)象檢測(cè)器,結(jié)合圖遷移學(xué)習(xí)可在多個(gè)數(shù)據(jù)集之間傳播相關(guān)語(yǔ)義信息,以達(dá)到語(yǔ)義一致性。Universal-RCNN首先通過(guò)整合所有類的所有高級(jí)語(yǔ)義表示來(lái)生成全局語(yǔ)義池。然后,域內(nèi)推理模塊在空間感知圖卷積網(wǎng)絡(luò)指引下的一個(gè)數(shù)據(jù)集中學(xué)習(xí)并傳播稀疏圖表示。最后,Universal-RCNN中的域間傳輸模塊利用所有域之間的多種傳輸依賴關(guān)系,通過(guò)全局參與和傳輸語(yǔ)義上下文來(lái)增強(qiáng)區(qū)域特征表示。大量實(shí)驗(yàn)表明,Universal-RCNN明顯優(yōu)于現(xiàn)有的多分支模型,并在多對(duì)象檢測(cè)基準(zhǔn)上達(dá)到最新水平。
論文名稱:Unsupervised Domain Adaptation for Depth Prediction from Images
作者:Tonioni Alessio /Poggi Matteo /Mattoccia Stefano /Di Stefano Luigi
發(fā)表時(shí)間:2019/9/9
論文鏈接:https://paper.yanxishe.com/review/11952?from=leiphonecolumn_paperreview0226
推薦原因
論文的目標(biāo)是利用無(wú)監(jiān)督算法,將在大量合成數(shù)據(jù)上預(yù)訓(xùn)練的深度模型遷移到?jīng)]有標(biāo)簽監(jiān)督的目標(biāo)域上來(lái)。作者首先利用傳統(tǒng)的深度估計(jì)算法為目標(biāo)域的圖像標(biāo)記含有噪聲的偽標(biāo)簽,并生成一個(gè)逐像素的置信圖。論文的創(chuàng)新點(diǎn)在于提出了一種新穎的置信度引導(dǎo)損失函數(shù),它用來(lái)衡量哪些像素需要納入深度模型預(yù)測(cè)出的深度值與傳統(tǒng)方法計(jì)算出的深度值的誤差中。作者還將控制用來(lái)計(jì)算損失的像素值的超參數(shù)設(shè)置成一個(gè)可學(xué)習(xí)的變量,進(jìn)一步提升了模型的泛化能力。論文被TPAMI接收,為無(wú)監(jiān)督深度估計(jì)算法提供了新的解決思路。
論文名稱:A Neural Layered Model for Nested Named Entity Recognition
作者:Meizhi Ju /Makoto Miwa /Sophia Ananiadou
發(fā)表時(shí)間:2018/6/1
論文鏈接:https://paper.yanxishe.com/review/11812?from=leiphonecolumn_paperreview0226
推薦原因
1. 本文解決了大多數(shù)命名實(shí)體識(shí)別系統(tǒng)不能有效處理內(nèi)部嵌套實(shí)體的問(wèn)題,如在生物醫(yī)藥領(lǐng)域,嵌套實(shí)體出現(xiàn)非常頻繁,使用本文提出的方法可以在此背景下捕獲更細(xì)粒度的語(yǔ)義信息。
2. 本文提出了一種動(dòng)態(tài)分層模型,能夠充分利用內(nèi)部實(shí)體信息來(lái)加強(qiáng)外部實(shí)體的識(shí)別。模型基于由LSTM和CRF組成的flat NER層,因此模型能夠捕獲輸入序列的上下文表示,并在不依賴于特征工程的情況下在flat NER層上全局解碼預(yù)測(cè)標(biāo)簽。該模型針對(duì)于特定數(shù)據(jù)集(具有多種類別和嵌套的實(shí)體),嵌套的實(shí)體越多層次越深,實(shí)驗(yàn)效果越好。
3. 本文所提出的模型針對(duì)自然語(yǔ)言處理中命名實(shí)體識(shí)別問(wèn)題,能夠改善嵌套實(shí)體識(shí)別的情況,而實(shí)體識(shí)別是之后如實(shí)體對(duì)齊,構(gòu)建知識(shí)圖譜等問(wèn)題的基礎(chǔ),因而意義很大。
為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過(guò)論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。
我們希望熱愛(ài)學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。
加入論文作者團(tuán)隊(duì)你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會(huì)門票福利、獨(dú)家周邊紀(jì)念品等等等。
加入論文作者團(tuán)隊(duì)你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫論文解讀
如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 疾病狀態(tài)預(yù)測(cè);網(wǎng)絡(luò)剪枝技術(shù);代價(jià)體濾波;為新聞報(bào)道制作標(biāo)題等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。