0
本文作者: 大木 | 2020-03-31 11:14 |
F, B, Alpha Matting
使用一種基于符號(hào)化方法的LSTM網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)
RevealNet:窺探RGB-D掃描場(chǎng)景中的每個(gè)物體
BERT還不足以稱之為知識(shí)庫(kù):無監(jiān)督問答任務(wù)中BERT對(duì)事實(shí)性的知識(shí)和基于名稱的推理學(xué)習(xí)能力對(duì)比
實(shí)時(shí)語(yǔ)義立體匹配
論文名稱:F, B, Alpha Matting
作者:Marco Forte /Fran?ois Pitié
發(fā)表時(shí)間:2020/3/17
論文鏈接:https://paper.yanxishe.com/review/14460?from=leiphonecolumn_paperreview0331
推薦原因
本文已經(jīng)被提交到ECCV2020。Image Matting是眾多圖像編輯應(yīng)用中的一個(gè)關(guān)鍵技術(shù),其需要將對(duì)象從圖片分割出來并估計(jì)其不透明蒙版?;谏疃葘W(xué)習(xí)的方法也取得了很大的進(jìn)展,但大多數(shù)現(xiàn)有網(wǎng)絡(luò)僅預(yù)測(cè)alpha遮罩,需要借助后處理方法來恢復(fù)透明區(qū)域中的原始前景色和背景色。雖然最近也有兩種新的方法來同時(shí)估計(jì)前景色,但其需要大量的計(jì)算和存儲(chǔ)成本。
本文提出了對(duì)Matting網(wǎng)絡(luò)的低成本修改,使其能夠同時(shí)預(yù)測(cè)前景色和背景色。作者研究了訓(xùn)練方式的變化,并探索了大量現(xiàn)有的和新穎的損失函數(shù)用于聯(lián)合訓(xùn)練。文章方法在Adobe Composition-1k數(shù)據(jù)集上實(shí)現(xiàn)了alpha遮罩和復(fù)合顏色質(zhì)量的最先進(jìn)表現(xiàn),并在在線評(píng)價(jià)系統(tǒng)alphamatting.com上取得目前第一的排名。
論文名稱:Time Series Forecasting Using LSTM Networks: A Symbolic Approach
作者:Steven Elsworth and Stefan Guttel
發(fā)表時(shí)間:2020/3/12
論文鏈接:https://paper.yanxishe.com/review/14428?from=leiphonecolumn_paperreview0331
推薦原因
本文使用LSTM對(duì)時(shí)間序列數(shù)據(jù)進(jìn)行預(yù)測(cè),為了提高訓(xùn)練的速度,使用了基于聚類的ABBA表征方法,對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理轉(zhuǎn)換為符號(hào)的形式,并最終將符號(hào)進(jìn)行數(shù)字化,以供LSTM網(wǎng)絡(luò)使用。
本文對(duì)數(shù)據(jù)符號(hào)化的方法進(jìn)行了優(yōu)化,采用了插值的方法,讓轉(zhuǎn)化出來的時(shí)間序列數(shù)據(jù)更加緊密和平滑,此外,作者從對(duì)超參數(shù)的敏感度等方面研究了使用預(yù)處理過的數(shù)據(jù)進(jìn)行訓(xùn)練能比直接使用原始數(shù)據(jù)進(jìn)行訓(xùn)練的速度更快的原因。
我以前做車流量預(yù)測(cè)的時(shí)候,突發(fā)奇想嘗試過將車流量值轉(zhuǎn)化為符號(hào)表示,再使用LSTM+attention的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行訓(xùn)練,效果十分好,這篇文章解答了我當(dāng)時(shí)很多的疑惑。很多數(shù)值化的序列數(shù)據(jù),經(jīng)過預(yù)處理,能使用自然語(yǔ)言處理的方法來預(yù)測(cè),從而能得到更加豐富的上下文信息,不知這樣理解是否是對(duì)的?
論文名稱:RevealNet: Seeing Behind Objects in RGB-D Scans
作者:Hou Ji /Dai Angela /Nie?ner Matthias
發(fā)表時(shí)間:2019/4/26
論文鏈接:https://paper.yanxishe.com/review/14282?from=leiphonecolumn_paperreview0331
推薦原因
本文已被CVPR2020接收。在3D重建的過程中,人體通常無法掃描每個(gè)視圖下的所有單個(gè)對(duì)象,這會(huì)導(dǎo)致掃描數(shù)據(jù)的的丟失,進(jìn)而限制很多應(yīng)用,如機(jī)器人需要了解一個(gè)沒見過的幾何體以進(jìn)行精確的抓取。
本文作者介紹了一個(gè)語(yǔ)義實(shí)例補(bǔ)全的任務(wù):從一個(gè)不完全的RGBD掃描場(chǎng)景數(shù)據(jù),來檢測(cè)每個(gè)物體實(shí)例并推斷其完整的幾何形狀。為了解決這個(gè)問題,作者提出了一個(gè)端到端的3D神經(jīng)網(wǎng)絡(luò)架構(gòu)RevealNet,通過數(shù)據(jù)驅(qū)動(dòng)的方法來聯(lián)合檢測(cè)實(shí)例對(duì)象并預(yù)測(cè)其完整的幾何形狀。這使得掃描的場(chǎng)景能夠被有語(yǔ)義的分割為獨(dú)立的完整的3D物體,包括遮擋的和沒有觀察到的物體部分。文章方法比目前的最優(yōu)方法在mAP@0.5的衡量標(biāo)準(zhǔn)下效果有大幅提升,在ScanNet數(shù)據(jù)集上有15的提升,在SUNCG數(shù)據(jù)集上有18的提升。
文章介紹了一個(gè)3D機(jī)器學(xué)習(xí)任務(wù):語(yǔ)義實(shí)例補(bǔ)全,并提出了一個(gè)有效的框架RevealNet解決該任務(wù)。
論文名稱:BERT is Not a Knowledge Base (Yet): Factual Knowledge vs. Name-Based Reasoning in Unsupervised QA
作者:Nina Poerner?? and Ulli Waltinger? and Hinrich Schutze ¨ ?
發(fā)表時(shí)間:2019/11/9
論文鏈接:https://paper.yanxishe.com/review/14281?from=leiphonecolumn_paperreview0331
推薦原因
作者發(fā)現(xiàn)一些特殊問題:很難從句子中的實(shí)體名稱推理而出但是實(shí)際上并不困難,對(duì)于BERT而言很難處理,從而質(zhì)疑BERT能從名稱推理出答案,但是并不足以稱之為一個(gè)知識(shí)庫(kù)。同時(shí)提出了一種將由維基百科預(yù)料中學(xué)到的詞向量嵌入到BERT模型中的擴(kuò)展模型,得到了比BERT和ERNIE更好的結(jié)果。
作者提出的擴(kuò)展模型,引入了詞向量嵌入,在特定的任務(wù)上提升了BERT的效果,相對(duì)于需要在額外知識(shí)庫(kù)中進(jìn)行預(yù)訓(xùn)練得到的嵌入信息,更加簡(jiǎn)便,可解釋性也更強(qiáng)。
論文名稱:Real-Time Semantic Stereo Matching
作者:Dovesi Pier Luigi /Poggi Matteo /Andraghetti Lorenzo /Martí Miquel /Kjellstr?m Hedvig /Pieropan Alessandro /Mattoccia Stefano
發(fā)表時(shí)間:2019/10/1
論文鏈接:https://paper.yanxishe.com/review/14231?from=leiphonecolumn_paperreview0331
推薦原因
這篇論文提出了第一實(shí)時(shí)的語(yǔ)義立體匹配網(wǎng)絡(luò)RTSSNet,即將語(yǔ)義分割和雙目深度估計(jì)兩個(gè)任務(wù)用同一個(gè)端到端的網(wǎng)絡(luò)來實(shí)現(xiàn),并且達(dá)到實(shí)時(shí)的速度。之前的論文有將語(yǔ)義分割和立體匹配相結(jié)合(如SegStereo),但是他們并沒有達(dá)到實(shí)時(shí)的速度。這篇論文提出的RTSSNet結(jié)構(gòu)包括4個(gè)金字塔模塊,(1)特征提取模塊;(2)視差估計(jì)模塊;(3)語(yǔ)義分割模塊;(4)協(xié)同視差優(yōu)化模塊。第一個(gè)模塊是兩個(gè)任務(wù)共享的;第二和第三個(gè)模塊分別對(duì)應(yīng)兩個(gè)任務(wù),并且具有分辨率逐漸遞增的三個(gè)階段,用來平衡準(zhǔn)確率和速度;第四個(gè)模塊用來進(jìn)一步的將語(yǔ)義信息和深度信息融合,獲得更準(zhǔn)確的視差圖。這篇論文發(fā)表在機(jī)器人頂會(huì)ICRA 2020上,關(guān)注的智能機(jī)器人在場(chǎng)景感知上的需求——既要知道目標(biāo)在哪里(深度信息),還要知道目標(biāo)是什么(語(yǔ)義信息)。具有很強(qiáng)的實(shí)際用途。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 空間注意力網(wǎng)絡(luò);深度信念網(wǎng)絡(luò);GhostNet;位置預(yù)測(cè)等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。