0
本文作者: 大木 | 2020-03-31 11:14 |
F, B, Alpha Matting
使用一種基于符號化方法的LSTM網(wǎng)絡進行時間序列預測
RevealNet:窺探RGB-D掃描場景中的每個物體
BERT還不足以稱之為知識庫:無監(jiān)督問答任務中BERT對事實性的知識和基于名稱的推理學習能力對比
實時語義立體匹配
論文名稱:F, B, Alpha Matting
作者:Marco Forte /Fran?ois Pitié
發(fā)表時間:2020/3/17
論文鏈接:https://paper.yanxishe.com/review/14460?from=leiphonecolumn_paperreview0331
推薦原因
本文已經(jīng)被提交到ECCV2020。Image Matting是眾多圖像編輯應用中的一個關鍵技術,其需要將對象從圖片分割出來并估計其不透明蒙版。基于深度學習的方法也取得了很大的進展,但大多數(shù)現(xiàn)有網(wǎng)絡僅預測alpha遮罩,需要借助后處理方法來恢復透明區(qū)域中的原始前景色和背景色。雖然最近也有兩種新的方法來同時估計前景色,但其需要大量的計算和存儲成本。
本文提出了對Matting網(wǎng)絡的低成本修改,使其能夠同時預測前景色和背景色。作者研究了訓練方式的變化,并探索了大量現(xiàn)有的和新穎的損失函數(shù)用于聯(lián)合訓練。文章方法在Adobe Composition-1k數(shù)據(jù)集上實現(xiàn)了alpha遮罩和復合顏色質(zhì)量的最先進表現(xiàn),并在在線評價系統(tǒng)alphamatting.com上取得目前第一的排名。
論文名稱:Time Series Forecasting Using LSTM Networks: A Symbolic Approach
作者:Steven Elsworth and Stefan Guttel
發(fā)表時間:2020/3/12
論文鏈接:https://paper.yanxishe.com/review/14428?from=leiphonecolumn_paperreview0331
推薦原因
本文使用LSTM對時間序列數(shù)據(jù)進行預測,為了提高訓練的速度,使用了基于聚類的ABBA表征方法,對數(shù)據(jù)集進行預處理轉(zhuǎn)換為符號的形式,并最終將符號進行數(shù)字化,以供LSTM網(wǎng)絡使用。
本文對數(shù)據(jù)符號化的方法進行了優(yōu)化,采用了插值的方法,讓轉(zhuǎn)化出來的時間序列數(shù)據(jù)更加緊密和平滑,此外,作者從對超參數(shù)的敏感度等方面研究了使用預處理過的數(shù)據(jù)進行訓練能比直接使用原始數(shù)據(jù)進行訓練的速度更快的原因。
我以前做車流量預測的時候,突發(fā)奇想嘗試過將車流量值轉(zhuǎn)化為符號表示,再使用LSTM+attention的網(wǎng)絡結構進行訓練,效果十分好,這篇文章解答了我當時很多的疑惑。很多數(shù)值化的序列數(shù)據(jù),經(jīng)過預處理,能使用自然語言處理的方法來預測,從而能得到更加豐富的上下文信息,不知這樣理解是否是對的?
論文名稱:RevealNet: Seeing Behind Objects in RGB-D Scans
作者:Hou Ji /Dai Angela /Nie?ner Matthias
發(fā)表時間:2019/4/26
論文鏈接:https://paper.yanxishe.com/review/14282?from=leiphonecolumn_paperreview0331
推薦原因
本文已被CVPR2020接收。在3D重建的過程中,人體通常無法掃描每個視圖下的所有單個對象,這會導致掃描數(shù)據(jù)的的丟失,進而限制很多應用,如機器人需要了解一個沒見過的幾何體以進行精確的抓取。
本文作者介紹了一個語義實例補全的任務:從一個不完全的RGBD掃描場景數(shù)據(jù),來檢測每個物體實例并推斷其完整的幾何形狀。為了解決這個問題,作者提出了一個端到端的3D神經(jīng)網(wǎng)絡架構RevealNet,通過數(shù)據(jù)驅(qū)動的方法來聯(lián)合檢測實例對象并預測其完整的幾何形狀。這使得掃描的場景能夠被有語義的分割為獨立的完整的3D物體,包括遮擋的和沒有觀察到的物體部分。文章方法比目前的最優(yōu)方法在mAP@0.5的衡量標準下效果有大幅提升,在ScanNet數(shù)據(jù)集上有15的提升,在SUNCG數(shù)據(jù)集上有18的提升。
文章介紹了一個3D機器學習任務:語義實例補全,并提出了一個有效的框架RevealNet解決該任務。
論文名稱:BERT is Not a Knowledge Base (Yet): Factual Knowledge vs. Name-Based Reasoning in Unsupervised QA
作者:Nina Poerner?? and Ulli Waltinger? and Hinrich Schutze ¨ ?
發(fā)表時間:2019/11/9
論文鏈接:https://paper.yanxishe.com/review/14281?from=leiphonecolumn_paperreview0331
推薦原因
作者發(fā)現(xiàn)一些特殊問題:很難從句子中的實體名稱推理而出但是實際上并不困難,對于BERT而言很難處理,從而質(zhì)疑BERT能從名稱推理出答案,但是并不足以稱之為一個知識庫。同時提出了一種將由維基百科預料中學到的詞向量嵌入到BERT模型中的擴展模型,得到了比BERT和ERNIE更好的結果。
作者提出的擴展模型,引入了詞向量嵌入,在特定的任務上提升了BERT的效果,相對于需要在額外知識庫中進行預訓練得到的嵌入信息,更加簡便,可解釋性也更強。
論文名稱:Real-Time Semantic Stereo Matching
作者:Dovesi Pier Luigi /Poggi Matteo /Andraghetti Lorenzo /Martí Miquel /Kjellstr?m Hedvig /Pieropan Alessandro /Mattoccia Stefano
發(fā)表時間:2019/10/1
論文鏈接:https://paper.yanxishe.com/review/14231?from=leiphonecolumn_paperreview0331
推薦原因
這篇論文提出了第一實時的語義立體匹配網(wǎng)絡RTSSNet,即將語義分割和雙目深度估計兩個任務用同一個端到端的網(wǎng)絡來實現(xiàn),并且達到實時的速度。之前的論文有將語義分割和立體匹配相結合(如SegStereo),但是他們并沒有達到實時的速度。這篇論文提出的RTSSNet結構包括4個金字塔模塊,(1)特征提取模塊;(2)視差估計模塊;(3)語義分割模塊;(4)協(xié)同視差優(yōu)化模塊。第一個模塊是兩個任務共享的;第二和第三個模塊分別對應兩個任務,并且具有分辨率逐漸遞增的三個階段,用來平衡準確率和速度;第四個模塊用來進一步的將語義信息和深度信息融合,獲得更準確的視差圖。這篇論文發(fā)表在機器人頂會ICRA 2020上,關注的智能機器人在場景感知上的需求——既要知道目標在哪里(深度信息),還要知道目標是什么(語義信息)。具有很強的實際用途。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關文章:
今日 Paper | 空間注意力網(wǎng)絡;深度信念網(wǎng)絡;GhostNet;位置預測等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。