0
本文作者: 大木 | 2020-03-31 11:14 |
F, B, Alpha Matting
使用一種基于符號化方法的LSTM網(wǎng)絡(luò)進行時間序列預(yù)測
RevealNet:窺探RGB-D掃描場景中的每個物體
BERT還不足以稱之為知識庫:無監(jiān)督問答任務(wù)中BERT對事實性的知識和基于名稱的推理學(xué)習(xí)能力對比
實時語義立體匹配
論文名稱:F, B, Alpha Matting
作者:Marco Forte /Fran?ois Pitié
發(fā)表時間:2020/3/17
論文鏈接:https://paper.yanxishe.com/review/14460?from=leiphonecolumn_paperreview0331
推薦原因
本文已經(jīng)被提交到ECCV2020。Image Matting是眾多圖像編輯應(yīng)用中的一個關(guān)鍵技術(shù),其需要將對象從圖片分割出來并估計其不透明蒙版。基于深度學(xué)習(xí)的方法也取得了很大的進展,但大多數(shù)現(xiàn)有網(wǎng)絡(luò)僅預(yù)測alpha遮罩,需要借助后處理方法來恢復(fù)透明區(qū)域中的原始前景色和背景色。雖然最近也有兩種新的方法來同時估計前景色,但其需要大量的計算和存儲成本。
本文提出了對Matting網(wǎng)絡(luò)的低成本修改,使其能夠同時預(yù)測前景色和背景色。作者研究了訓(xùn)練方式的變化,并探索了大量現(xiàn)有的和新穎的損失函數(shù)用于聯(lián)合訓(xùn)練。文章方法在Adobe Composition-1k數(shù)據(jù)集上實現(xiàn)了alpha遮罩和復(fù)合顏色質(zhì)量的最先進表現(xiàn),并在在線評價系統(tǒng)alphamatting.com上取得目前第一的排名。
論文名稱:Time Series Forecasting Using LSTM Networks: A Symbolic Approach
作者:Steven Elsworth and Stefan Guttel
發(fā)表時間:2020/3/12
論文鏈接:https://paper.yanxishe.com/review/14428?from=leiphonecolumn_paperreview0331
推薦原因
本文使用LSTM對時間序列數(shù)據(jù)進行預(yù)測,為了提高訓(xùn)練的速度,使用了基于聚類的ABBA表征方法,對數(shù)據(jù)集進行預(yù)處理轉(zhuǎn)換為符號的形式,并最終將符號進行數(shù)字化,以供LSTM網(wǎng)絡(luò)使用。
本文對數(shù)據(jù)符號化的方法進行了優(yōu)化,采用了插值的方法,讓轉(zhuǎn)化出來的時間序列數(shù)據(jù)更加緊密和平滑,此外,作者從對超參數(shù)的敏感度等方面研究了使用預(yù)處理過的數(shù)據(jù)進行訓(xùn)練能比直接使用原始數(shù)據(jù)進行訓(xùn)練的速度更快的原因。
我以前做車流量預(yù)測的時候,突發(fā)奇想嘗試過將車流量值轉(zhuǎn)化為符號表示,再使用LSTM+attention的網(wǎng)絡(luò)結(jié)構(gòu)進行訓(xùn)練,效果十分好,這篇文章解答了我當(dāng)時很多的疑惑。很多數(shù)值化的序列數(shù)據(jù),經(jīng)過預(yù)處理,能使用自然語言處理的方法來預(yù)測,從而能得到更加豐富的上下文信息,不知這樣理解是否是對的?
論文名稱:RevealNet: Seeing Behind Objects in RGB-D Scans
作者:Hou Ji /Dai Angela /Nie?ner Matthias
發(fā)表時間:2019/4/26
論文鏈接:https://paper.yanxishe.com/review/14282?from=leiphonecolumn_paperreview0331
推薦原因
本文已被CVPR2020接收。在3D重建的過程中,人體通常無法掃描每個視圖下的所有單個對象,這會導(dǎo)致掃描數(shù)據(jù)的的丟失,進而限制很多應(yīng)用,如機器人需要了解一個沒見過的幾何體以進行精確的抓取。
本文作者介紹了一個語義實例補全的任務(wù):從一個不完全的RGBD掃描場景數(shù)據(jù),來檢測每個物體實例并推斷其完整的幾何形狀。為了解決這個問題,作者提出了一個端到端的3D神經(jīng)網(wǎng)絡(luò)架構(gòu)RevealNet,通過數(shù)據(jù)驅(qū)動的方法來聯(lián)合檢測實例對象并預(yù)測其完整的幾何形狀。這使得掃描的場景能夠被有語義的分割為獨立的完整的3D物體,包括遮擋的和沒有觀察到的物體部分。文章方法比目前的最優(yōu)方法在mAP@0.5的衡量標(biāo)準(zhǔn)下效果有大幅提升,在ScanNet數(shù)據(jù)集上有15的提升,在SUNCG數(shù)據(jù)集上有18的提升。
文章介紹了一個3D機器學(xué)習(xí)任務(wù):語義實例補全,并提出了一個有效的框架RevealNet解決該任務(wù)。
論文名稱:BERT is Not a Knowledge Base (Yet): Factual Knowledge vs. Name-Based Reasoning in Unsupervised QA
作者:Nina Poerner?? and Ulli Waltinger? and Hinrich Schutze ¨ ?
發(fā)表時間:2019/11/9
論文鏈接:https://paper.yanxishe.com/review/14281?from=leiphonecolumn_paperreview0331
推薦原因
作者發(fā)現(xiàn)一些特殊問題:很難從句子中的實體名稱推理而出但是實際上并不困難,對于BERT而言很難處理,從而質(zhì)疑BERT能從名稱推理出答案,但是并不足以稱之為一個知識庫。同時提出了一種將由維基百科預(yù)料中學(xué)到的詞向量嵌入到BERT模型中的擴展模型,得到了比BERT和ERNIE更好的結(jié)果。
作者提出的擴展模型,引入了詞向量嵌入,在特定的任務(wù)上提升了BERT的效果,相對于需要在額外知識庫中進行預(yù)訓(xùn)練得到的嵌入信息,更加簡便,可解釋性也更強。
論文名稱:Real-Time Semantic Stereo Matching
作者:Dovesi Pier Luigi /Poggi Matteo /Andraghetti Lorenzo /Martí Miquel /Kjellstr?m Hedvig /Pieropan Alessandro /Mattoccia Stefano
發(fā)表時間:2019/10/1
論文鏈接:https://paper.yanxishe.com/review/14231?from=leiphonecolumn_paperreview0331
推薦原因
這篇論文提出了第一實時的語義立體匹配網(wǎng)絡(luò)RTSSNet,即將語義分割和雙目深度估計兩個任務(wù)用同一個端到端的網(wǎng)絡(luò)來實現(xiàn),并且達(dá)到實時的速度。之前的論文有將語義分割和立體匹配相結(jié)合(如SegStereo),但是他們并沒有達(dá)到實時的速度。這篇論文提出的RTSSNet結(jié)構(gòu)包括4個金字塔模塊,(1)特征提取模塊;(2)視差估計模塊;(3)語義分割模塊;(4)協(xié)同視差優(yōu)化模塊。第一個模塊是兩個任務(wù)共享的;第二和第三個模塊分別對應(yīng)兩個任務(wù),并且具有分辨率逐漸遞增的三個階段,用來平衡準(zhǔn)確率和速度;第四個模塊用來進一步的將語義信息和深度信息融合,獲得更準(zhǔn)確的視差圖。這篇論文發(fā)表在機器人頂會ICRA 2020上,關(guān)注的智能機器人在場景感知上的需求——既要知道目標(biāo)在哪里(深度信息),還要知道目標(biāo)是什么(語義信息)。具有很強的實際用途。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 空間注意力網(wǎng)絡(luò);深度信念網(wǎng)絡(luò);GhostNet;位置預(yù)測等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。