0
本文作者: AI科技評論 | 2020-08-21 17:12 |
.
論文名稱:A Survey on Deep Learning Techniques for Stereo-based Depth Estimation
作者:Laga Hamid /Jospin Laurent Valentin /Boussaid Farid /Bennamoun Mohammed
發(fā)表時(shí)間:2020/6/1
論文鏈接:https://arxiv.org/abs/2006.02535?context=cs.GR
推薦原因
這是第一篇關(guān)于基于深度學(xué)習(xí)的立體匹配任務(wù)的綜述文章,以往關(guān)于立體匹配的綜述文章多基于傳統(tǒng)方法,或者年代已久。這篇綜述文章主要總結(jié)了過去6年發(fā)表在主要會(huì)議和期刊上的150多篇深度立體匹配論文,可以稱得上方法最新,分類最全,概括最廣。
在論文中,作者首先介紹了深度立體匹配網(wǎng)絡(luò)的常用架構(gòu),然后討論了基于每種架構(gòu)的所有方法之間的異同。其分析的角度包括訓(xùn)練的數(shù)據(jù)集、網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)、它們在重建性能、訓(xùn)練策略和泛化能力上的效果。對于一些關(guān)鍵的方法,作者還使用了公開數(shù)據(jù)集和私有數(shù)據(jù)進(jìn)行總結(jié)和比較,采用私有數(shù)據(jù)的目的是測試各類方法在全新場景下的泛化性能。
這篇論文能夠?yàn)檠芯可疃攘Ⅲw匹配的研究人員提供詳細(xì)的參考資料,同時(shí),作者在最后一節(jié)提到的7種未來發(fā)展方向?qū)τ谘芯可疃攘Ⅲw匹配具有很好的思考價(jià)值,值得細(xì)細(xì)品讀。
論文名稱:P2Net: Patch-match and Plane-regularization for Unsupervised Indoor Depth Estimation
作者:Yu Zehao /Jin Lei /Gao Shenghua
發(fā)表時(shí)間:2020/7/15
論文鏈接:https://arxiv.org/abs/2007.07696
開源地址:https://github.com/svip-lab/Indoor-SfMLearner
推薦原因
這篇論文提出了一個(gè)新的無監(jiān)督室內(nèi)場景下的深度估計(jì)網(wǎng)絡(luò)P2Net,其創(chuàng)新點(diǎn)在于提出了兩種新式無監(jiān)督損失函數(shù),論文發(fā)表在ECCV2020上。
傳統(tǒng)的無監(jiān)督損失函數(shù)是以像素點(diǎn)為單位的圖像重構(gòu)損失,以及邊緣敏感的梯度平滑損失。作者發(fā)現(xiàn)只在每個(gè)像素點(diǎn)處計(jì)算圖像重構(gòu)損失得到的特征表示并不夠魯棒,由此提出采用基于圖像塊表示的重構(gòu)損失。具體地,采用已有的特征描述子算法DSO提取特征關(guān)鍵點(diǎn),以關(guān)鍵點(diǎn)為中心構(gòu)建局部窗口,計(jì)算整個(gè)窗口內(nèi)的重構(gòu)損失更具有魯棒性。另外,考慮到無監(jiān)督訓(xùn)練時(shí)的崩塌來源于室內(nèi)場景下的無紋理區(qū)域,作者認(rèn)為無紋理區(qū)域可以看做是一個(gè)平面,通過對圖像提取超像素點(diǎn)從而構(gòu)造平面區(qū)域,在同一平面上的像素點(diǎn)的深度信息應(yīng)當(dāng)具有一致性,由此提出平面一致性損失。
作者提出的P2Net在NYU Depth V2和ScanNet兩個(gè)公開數(shù)據(jù)集上取得了SOTA的效果。
緩解異質(zhì)信息網(wǎng)絡(luò)中冷啟動(dòng)問題 so easy?來看看 MetaHIN 模型
論文名稱:Meta-learning on Heterogeneous Information Networks for Cold-start Recommendation
作者:Yuanfu Lu/Yuan Fang/Chuan Shi
發(fā)表時(shí)間:2020/7/6
論文鏈接:https://aminer.cn/pub/5f03f3b611dc830562232019?conf=kdd2020
開源代碼:https://github.com/rootlu/MetaHIN
推薦原因
推薦系統(tǒng)旨在預(yù)測用戶對物品的偏好,從而向用戶提供其感興趣的商品,為用戶解決信息過載問題。為了緩解推薦系統(tǒng)中異質(zhì)信息網(wǎng)絡(luò)的“冷啟動(dòng)”問題,作者提出MetaHIN模型。
MetaHIN在模型層面探索了元學(xué)習(xí)的能力,同時(shí)在數(shù)據(jù)層面研究了異質(zhì)信息網(wǎng)絡(luò)的表達(dá)能力。在MetaHIN中,作者提出使用多方面的語義上下文來增強(qiáng)每個(gè)用戶的任務(wù),因此設(shè)計(jì)了一種新穎的語義增強(qiáng)型任務(wù)構(gòu)建器,用于在元學(xué)習(xí)場景中捕獲異質(zhì)信息網(wǎng)絡(luò)中的語義信息。進(jìn)一步地,我們構(gòu)建了一個(gè)協(xié)同適應(yīng)元學(xué)習(xí)器。
該學(xué)習(xí)器既具有語義層面的適應(yīng)性,又具有任務(wù)層面的適應(yīng)性。
該論文已經(jīng)被KDD 2020收錄。
論文名稱:Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures
作者:Lasse Espeholt / Hubert Soyer / Remi Munos / Karen Simonyan / Volodymir Mnih / Tom Ward / Yotam Doron / Vlad Firoiu / Tim Harley / Iain Dunning / Shane Legg / Koray Kavukcuoglu
發(fā)表時(shí)間:2018/6/28
論文鏈接:https://arxiv.org/abs/1802.01561
推薦原因
這是并行RL算法領(lǐng)域引用最為高的一篇文章。文章和以往做的工作不同,不僅僅有工程上實(shí)驗(yàn)效果的大幅提升,還做了理論的分析解決了on-policy與off-policy的訓(xùn)練差異問題,整體工作是相當(dāng)solid的。
作者同時(shí)啟動(dòng)了多個(gè)Actor和一個(gè)Learner,每個(gè)Actor都是包含整個(gè)policy參數(shù)的,負(fù)責(zé)和環(huán)境交互產(chǎn)生數(shù)據(jù),Learner是負(fù)責(zé)訓(xùn)練參數(shù)還有同步參數(shù)給Actor的。這就有個(gè)問題了,參數(shù)同步會(huì)有無法避免的延遲,那這個(gè)就違背了On-policy算法的更新原則,作者提出了一種很好的方式解決這個(gè)問題,對有延遲的數(shù)據(jù)進(jìn)行修正使得on-policy的訓(xùn)練方式可以繼續(xù)進(jìn)行。
論文名稱:GPT-GNN: Generative Pre-Training of Graph Neural Networks
作者:Hu Ziniu /Dong Yuxiao /Wang Kuansan /Chang Kai-Wei /Sun Yizhou
發(fā)表時(shí)間:2020/6/27
論文鏈接:https://arxiv.org/abs/2006.15437
推薦原因
該論文介紹的工作是致力于預(yù)訓(xùn)練圖神經(jīng)網(wǎng)絡(luò),以期GNN能夠?qū)W習(xí)到圖數(shù)據(jù)的結(jié)構(gòu)和特征信息,從而能幫助標(biāo)注數(shù)據(jù)較少的下游任務(wù)。 論文已經(jīng)被KDD 2020 收錄。
文章提出用生成模型來對圖分布進(jìn)行建模,即逐步預(yù)測出一個(gè)圖中一個(gè)新節(jié)點(diǎn)會(huì)有哪些特征、會(huì)和圖中哪些節(jié)點(diǎn)相連。
在第一步中,通過已經(jīng)觀測到的邊,預(yù)測該節(jié)點(diǎn)的特征;
在第二步中,通過已經(jīng)觀測到的邊,以及預(yù)測出的特征,來預(yù)測剩下的邊。
作者在兩個(gè)大規(guī)模異構(gòu)網(wǎng)絡(luò)和一個(gè)同構(gòu)網(wǎng)絡(luò)上進(jìn)行了實(shí)驗(yàn),總體而言,GPT-GNN在不同的實(shí)驗(yàn)設(shè)定下顯著提高下游任務(wù)的性能,平均能達(dá)到9.1%的性能提升。另外,還評估了在不同百分比的標(biāo)記數(shù)據(jù)下,GPT-GNN是否依然能取得提升。
詳細(xì)可看論文。
AI研習(xí)社論文討論微信群,分別有【NLP論文討論群】【CV論文討論群】【強(qiáng)化學(xué)習(xí)討論群】,未來將會(huì)更細(xì)分方向和內(nèi)容,群里面可以分享你覺得不錯(cuò)的論文,可以和同學(xué)一起討論論文復(fù)現(xiàn)結(jié)果等細(xì)節(jié),歡迎大家加入并積極參與活躍!
掃碼添加小助手微信,發(fā)送【XX論文】,如:強(qiáng)化學(xué)習(xí)論文,即可進(jìn)入相關(guān)的論文討論群。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。