0
本文作者: AI科技評(píng)論 | 2020-08-21 17:12 |
.
論文名稱:A Survey on Deep Learning Techniques for Stereo-based Depth Estimation
作者:Laga Hamid /Jospin Laurent Valentin /Boussaid Farid /Bennamoun Mohammed
發(fā)表時(shí)間:2020/6/1
論文鏈接:https://arxiv.org/abs/2006.02535?context=cs.GR
推薦原因
這是第一篇關(guān)于基于深度學(xué)習(xí)的立體匹配任務(wù)的綜述文章,以往關(guān)于立體匹配的綜述文章多基于傳統(tǒng)方法,或者年代已久。這篇綜述文章主要總結(jié)了過(guò)去6年發(fā)表在主要會(huì)議和期刊上的150多篇深度立體匹配論文,可以稱得上方法最新,分類最全,概括最廣。
在論文中,作者首先介紹了深度立體匹配網(wǎng)絡(luò)的常用架構(gòu),然后討論了基于每種架構(gòu)的所有方法之間的異同。其分析的角度包括訓(xùn)練的數(shù)據(jù)集、網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)、它們?cè)谥亟ㄐ阅堋⒂?xùn)練策略和泛化能力上的效果。對(duì)于一些關(guān)鍵的方法,作者還使用了公開(kāi)數(shù)據(jù)集和私有數(shù)據(jù)進(jìn)行總結(jié)和比較,采用私有數(shù)據(jù)的目的是測(cè)試各類方法在全新場(chǎng)景下的泛化性能。
這篇論文能夠?yàn)檠芯可疃攘Ⅲw匹配的研究人員提供詳細(xì)的參考資料,同時(shí),作者在最后一節(jié)提到的7種未來(lái)發(fā)展方向?qū)τ谘芯可疃攘Ⅲw匹配具有很好的思考價(jià)值,值得細(xì)細(xì)品讀。
論文名稱:P2Net: Patch-match and Plane-regularization for Unsupervised Indoor Depth Estimation
作者:Yu Zehao /Jin Lei /Gao Shenghua
發(fā)表時(shí)間:2020/7/15
論文鏈接:https://arxiv.org/abs/2007.07696
開(kāi)源地址:https://github.com/svip-lab/Indoor-SfMLearner
推薦原因
這篇論文提出了一個(gè)新的無(wú)監(jiān)督室內(nèi)場(chǎng)景下的深度估計(jì)網(wǎng)絡(luò)P2Net,其創(chuàng)新點(diǎn)在于提出了兩種新式無(wú)監(jiān)督損失函數(shù),論文發(fā)表在ECCV2020上。
傳統(tǒng)的無(wú)監(jiān)督損失函數(shù)是以像素點(diǎn)為單位的圖像重構(gòu)損失,以及邊緣敏感的梯度平滑損失。作者發(fā)現(xiàn)只在每個(gè)像素點(diǎn)處計(jì)算圖像重構(gòu)損失得到的特征表示并不夠魯棒,由此提出采用基于圖像塊表示的重構(gòu)損失。具體地,采用已有的特征描述子算法DSO提取特征關(guān)鍵點(diǎn),以關(guān)鍵點(diǎn)為中心構(gòu)建局部窗口,計(jì)算整個(gè)窗口內(nèi)的重構(gòu)損失更具有魯棒性。另外,考慮到無(wú)監(jiān)督訓(xùn)練時(shí)的崩塌來(lái)源于室內(nèi)場(chǎng)景下的無(wú)紋理區(qū)域,作者認(rèn)為無(wú)紋理區(qū)域可以看做是一個(gè)平面,通過(guò)對(duì)圖像提取超像素點(diǎn)從而構(gòu)造平面區(qū)域,在同一平面上的像素點(diǎn)的深度信息應(yīng)當(dāng)具有一致性,由此提出平面一致性損失。
作者提出的P2Net在NYU Depth V2和ScanNet兩個(gè)公開(kāi)數(shù)據(jù)集上取得了SOTA的效果。
緩解異質(zhì)信息網(wǎng)絡(luò)中冷啟動(dòng)問(wèn)題 so easy?來(lái)看看 MetaHIN 模型
論文名稱:Meta-learning on Heterogeneous Information Networks for Cold-start Recommendation
作者:Yuanfu Lu/Yuan Fang/Chuan Shi
發(fā)表時(shí)間:2020/7/6
論文鏈接:https://aminer.cn/pub/5f03f3b611dc830562232019?conf=kdd2020
開(kāi)源代碼:https://github.com/rootlu/MetaHIN
推薦原因
推薦系統(tǒng)旨在預(yù)測(cè)用戶對(duì)物品的偏好,從而向用戶提供其感興趣的商品,為用戶解決信息過(guò)載問(wèn)題。為了緩解推薦系統(tǒng)中異質(zhì)信息網(wǎng)絡(luò)的“冷啟動(dòng)”問(wèn)題,作者提出MetaHIN模型。
MetaHIN在模型層面探索了元學(xué)習(xí)的能力,同時(shí)在數(shù)據(jù)層面研究了異質(zhì)信息網(wǎng)絡(luò)的表達(dá)能力。在MetaHIN中,作者提出使用多方面的語(yǔ)義上下文來(lái)增強(qiáng)每個(gè)用戶的任務(wù),因此設(shè)計(jì)了一種新穎的語(yǔ)義增強(qiáng)型任務(wù)構(gòu)建器,用于在元學(xué)習(xí)場(chǎng)景中捕獲異質(zhì)信息網(wǎng)絡(luò)中的語(yǔ)義信息。進(jìn)一步地,我們構(gòu)建了一個(gè)協(xié)同適應(yīng)元學(xué)習(xí)器。
該學(xué)習(xí)器既具有語(yǔ)義層面的適應(yīng)性,又具有任務(wù)層面的適應(yīng)性。
該論文已經(jīng)被KDD 2020收錄。
論文名稱:Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures
作者:Lasse Espeholt / Hubert Soyer / Remi Munos / Karen Simonyan / Volodymir Mnih / Tom Ward / Yotam Doron / Vlad Firoiu / Tim Harley / Iain Dunning / Shane Legg / Koray Kavukcuoglu
發(fā)表時(shí)間:2018/6/28
論文鏈接:https://arxiv.org/abs/1802.01561
推薦原因
這是并行RL算法領(lǐng)域引用最為高的一篇文章。文章和以往做的工作不同,不僅僅有工程上實(shí)驗(yàn)效果的大幅提升,還做了理論的分析解決了on-policy與off-policy的訓(xùn)練差異問(wèn)題,整體工作是相當(dāng)solid的。
作者同時(shí)啟動(dòng)了多個(gè)Actor和一個(gè)Learner,每個(gè)Actor都是包含整個(gè)policy參數(shù)的,負(fù)責(zé)和環(huán)境交互產(chǎn)生數(shù)據(jù),Learner是負(fù)責(zé)訓(xùn)練參數(shù)還有同步參數(shù)給Actor的。這就有個(gè)問(wèn)題了,參數(shù)同步會(huì)有無(wú)法避免的延遲,那這個(gè)就違背了On-policy算法的更新原則,作者提出了一種很好的方式解決這個(gè)問(wèn)題,對(duì)有延遲的數(shù)據(jù)進(jìn)行修正使得on-policy的訓(xùn)練方式可以繼續(xù)進(jìn)行。
論文名稱:GPT-GNN: Generative Pre-Training of Graph Neural Networks
作者:Hu Ziniu /Dong Yuxiao /Wang Kuansan /Chang Kai-Wei /Sun Yizhou
發(fā)表時(shí)間:2020/6/27
論文鏈接:https://arxiv.org/abs/2006.15437
推薦原因
該論文介紹的工作是致力于預(yù)訓(xùn)練圖神經(jīng)網(wǎng)絡(luò),以期GNN能夠?qū)W習(xí)到圖數(shù)據(jù)的結(jié)構(gòu)和特征信息,從而能幫助標(biāo)注數(shù)據(jù)較少的下游任務(wù)。 論文已經(jīng)被KDD 2020 收錄。
文章提出用生成模型來(lái)對(duì)圖分布進(jìn)行建模,即逐步預(yù)測(cè)出一個(gè)圖中一個(gè)新節(jié)點(diǎn)會(huì)有哪些特征、會(huì)和圖中哪些節(jié)點(diǎn)相連。
在第一步中,通過(guò)已經(jīng)觀測(cè)到的邊,預(yù)測(cè)該節(jié)點(diǎn)的特征;
在第二步中,通過(guò)已經(jīng)觀測(cè)到的邊,以及預(yù)測(cè)出的特征,來(lái)預(yù)測(cè)剩下的邊。
作者在兩個(gè)大規(guī)模異構(gòu)網(wǎng)絡(luò)和一個(gè)同構(gòu)網(wǎng)絡(luò)上進(jìn)行了實(shí)驗(yàn),總體而言,GPT-GNN在不同的實(shí)驗(yàn)設(shè)定下顯著提高下游任務(wù)的性能,平均能達(dá)到9.1%的性能提升。另外,還評(píng)估了在不同百分比的標(biāo)記數(shù)據(jù)下,GPT-GNN是否依然能取得提升。
詳細(xì)可看論文。
AI研習(xí)社論文討論微信群,分別有【NLP論文討論群】【CV論文討論群】【強(qiáng)化學(xué)習(xí)討論群】,未來(lái)將會(huì)更細(xì)分方向和內(nèi)容,群里面可以分享你覺(jué)得不錯(cuò)的論文,可以和同學(xué)一起討論論文復(fù)現(xiàn)結(jié)果等細(xì)節(jié),歡迎大家加入并積極參與活躍!
掃碼添加小助手微信,發(fā)送【XX論文】,如:強(qiáng)化學(xué)習(xí)論文,即可進(jìn)入相關(guān)的論文討論群。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。