0
本文作者: 大木 | 2020-02-21 18:13 |
REFORMER:一個(gè)高效的TRANSFORMER結(jié)構(gòu)
具有文本指導(dǎo)的圖像到圖像的翻譯
解決背景重校準(zhǔn)損失下的缺失標(biāo)注目標(biāo)檢測(cè)問題
MLFcGAN:基于多級(jí)特征融合的條件GAN水下圖像顏色校正
基于跨模態(tài)自我注意網(wǎng)絡(luò)學(xué)習(xí)的視頻問題生成
論文名稱:REFORMER: THE EFFICIENT TRANSFORMER
作者:Nikita Kitaev / Lukasz Kaiser / Anselm Levskaya
發(fā)表時(shí)間:2019/9/26
論文鏈接:https://paper.yanxishe.com/review/11542?from=leiphonecolumn_paperreview0221
推薦原因
核心問題:自從BERT取得了巨大的效果的時(shí)候,transform就成為了大多數(shù)nlp任務(wù)的標(biāo)配,但是它存在一些問題,比如訓(xùn)練速度慢,占用內(nèi)容大,還有無法處理長(zhǎng)序列,本論文就是解決這些問題。
創(chuàng)新點(diǎn):該論文提出了一種REFORMER結(jié)構(gòu),它的核心有以下幾點(diǎn):首先提出了可逆層,在該層中只存儲(chǔ)單層激活值的一份拷貝,然后它把FF層里的激活值進(jìn)行切分 ,最后它使用局部敏感哈希(LSH)注意力代替?zhèn)鹘y(tǒng)多頭注意力
研究意義:這個(gè)新模型不僅訓(xùn)練速度快,而且占用內(nèi)存小,還可以解決序列過長(zhǎng)的問題。
論文名稱:Image-to-Image Translation with Text Guidance
作者:Li Bowen /Qi Xiaojuan /Torr Philip H. S. /Lukasiewicz Thomas
發(fā)表時(shí)間:2020/2/12
論文鏈接:https://paper.yanxishe.com/review/11541?from=leiphonecolumn_paperreview0221
推薦原因
這篇論文提出了一個(gè)新的圖像到圖像遷移方法,通過生成對(duì)抗網(wǎng)絡(luò)將可控因素(即自然語言描述)嵌入到圖像到圖像的遷移中,從而使文字描述可以確定合成圖像的視覺屬性。這個(gè)新方法由4個(gè)關(guān)鍵組成部分組成:1、實(shí)施詞性標(biāo)注以過濾掉給定描述中的非語義詞;2、采用仿射組合模塊來有效融合不同形式的文本和圖像特征;3、一種新的精細(xì)多級(jí)架構(gòu),以增強(qiáng)判別器的判別能力和生成器的糾正能力;4、一種新的結(jié)構(gòu)損失,進(jìn)一步提升了判別器的性能,以更好地區(qū)分真實(shí)圖像和合成圖像。COCO數(shù)據(jù)集上的實(shí)驗(yàn)表明了這篇論文提出的方法在視覺真實(shí)性和語義一致性方面均具有出色的性能表現(xiàn)。
論文名稱:Solving Missing-Annotation Object Detection with Background Recalibration Loss
作者:Zhang Han /Chen Fangyi /Shen Zhiqiang /Hao Qiqi /Zhu Chenchen /Savvides Marios
發(fā)表時(shí)間:2020/2/12
論文鏈接:https://paper.yanxishe.com/review/11540?from=leiphonecolumn_paperreview0221
推薦原因
這篇論文研究了一種新的且具有挑戰(zhàn)性的目標(biāo)檢測(cè)場(chǎng)景:數(shù)據(jù)集中大多數(shù)真實(shí)對(duì)象或?qū)嵗幢粯?biāo)注,因此這些未被標(biāo)注的區(qū)域在訓(xùn)練過程中被視為背景?,F(xiàn)有方法基于Faster RCNN,使用軟采樣與正實(shí)例的重疊來對(duì)RoI的梯度進(jìn)行加權(quán)。這篇論文提出了一個(gè)新的名為背景重校準(zhǔn)損失的解決方案,可以根據(jù)預(yù)定義的IoU閾值和輸入圖像來自動(dòng)重新校準(zhǔn)損失信號(hào)。這篇論文還進(jìn)行了幾項(xiàng)重大的修改,以適應(yīng)缺失標(biāo)注的情況。PASCAL VOC和MS COCO數(shù)據(jù)集上的實(shí)驗(yàn)表明這篇論文所提出的方法在很大程度上優(yōu)于現(xiàn)有方法。
論文名稱:MLFcGAN: Multi-level Feature Fusion based Conditional GAN for Underwater Image Color Correction
作者:Liu Xiaodong /Gao Zhi /Chen Ben M.
發(fā)表時(shí)間:2020/2/13
論文鏈接:https://paper.yanxishe.com/review/11539?from=leiphonecolumn_paperreview0221
推薦原因
這篇論文考慮的是水下圖像的色彩修正問題。
這篇論文基于生成對(duì)抗網(wǎng)絡(luò),提出了一個(gè)深度多尺度特征融合網(wǎng)絡(luò),首先抽取多尺度特征,然后在每個(gè)尺度用全局特征對(duì)局部特征進(jìn)行了增強(qiáng)。在色彩修正和細(xì)節(jié)保留兩個(gè)任務(wù)上,這篇論文所提方法取得領(lǐng)先優(yōu)勢(shì),在質(zhì)量、呈現(xiàn)效果、方法新穎上相比當(dāng)前最佳模型更加優(yōu)越。
論文名稱:Video Question Generation via Cross-Modal Self-Attention Networks Learning
作者:Wang Yu-Siang /Su Hung-Ting /Chang Chen-Hsi /Liu Zhe-Yu /Hsu Winston
發(fā)表時(shí)間:2019/7/5
論文鏈接:https://paper.yanxishe.com/review/11538?from=leiphonecolumn_paperreview0221
推薦原因
這篇論文要解決的是視頻問答的問題。
對(duì)視頻問答任務(wù)而言,深度學(xué)習(xí)模型嚴(yán)重依賴海量數(shù)據(jù),而這類數(shù)據(jù)的標(biāo)注成本很高。這篇論文提出了一個(gè)新任務(wù),可以自動(dòng)根據(jù)視頻片段中的視頻幀序列和相應(yīng)的字幕生成問題,從而減少了巨大的標(biāo)注成本。學(xué)習(xí)如何對(duì)視頻內(nèi)容進(jìn)行提問需要模型理解場(chǎng)景中豐富的語義以及視覺和語言之間的相互作用。為了解決這個(gè)問題,這篇論文提出了一種新的跨模式自注意力網(wǎng)絡(luò),以聚合視頻幀和字幕的各種特征。通過實(shí)驗(yàn)證明了所提出的方法相對(duì)于基準(zhǔn)方法可以有85%的提升。
為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。
我們希望熱愛學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。
加入論文作者團(tuán)隊(duì)你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會(huì)門票福利、獨(dú)家周邊紀(jì)念品等等等。
加入論文作者團(tuán)隊(duì)你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫論文解讀
如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微信,備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | COVID-19感染者篩查;生成式摘要;圖像融合數(shù)據(jù)集;端到端臉部分析等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。