0
本文作者: AI研習社 | 2020-03-12 11:54 |
基于進化算法和權(quán)值共享的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索
檢測視頻中關(guān)注的視覺目標
包含狀態(tài)信息的弱監(jiān)督學習方法進行人物識別
基于解剖學感知的視頻3D人體姿態(tài)估計
RandLA-Net:一種新型的大規(guī)模點云語義分割框架
論文名稱:CARS: Continuous Evolution for Efficient Neural Architecture Search
作者:Zhaohui
發(fā)表時間:2020/3/4
論文鏈接:https://paper.yanxishe.com/review/13531?from=leiphonecolumn_paperreview0312
推薦原因
本文為2020CVPR的文章,是國內(nèi)華為公司的一篇paper。本文的主要工作是為了優(yōu)化進化算法在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索時候選網(wǎng)絡(luò)訓練過長的問題,作者參考了ENAS和NSGA-III。在此基礎(chǔ)上,作者提出了一種新的方法——連續(xù)進化結(jié)構(gòu)搜索(continuous evolution architecture search),簡記為CARS。該方法盡可能的利用學習到的一切知識,包括上一輪訓練的結(jié)構(gòu)和參數(shù)。
創(chuàng)新點:
1、開發(fā)了一種有效的連續(xù)進化方法用于搜索神經(jīng)網(wǎng)絡(luò)??梢栽谟柧殧?shù)據(jù)集上調(diào)整最新一代共享一個SuperNet中參數(shù)的總體架構(gòu)。
2、使用None-dominated排序策略來選擇不同大小的優(yōu)秀網(wǎng)絡(luò),整體耗時僅需要0.5 GPU day。
論文名稱:Detecting Attended Visual Targets in Video
作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.
發(fā)表時間:2020/3/5
論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0312
推薦原因
這篇論文被CVPR 2020接收,要解決的是檢測視頻中關(guān)注目標的問題。具體來說,目標是確定每個視頻幀中每個人的視線,并正確處理幀外(的情況。所提的新架構(gòu)有效模擬了場景與頭部特征之間的動態(tài)交互,以推斷隨時間變化的關(guān)注目標。同時這篇論文引入了一個新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實世界中復(fù)雜和動態(tài)的注視行為模式。在該數(shù)據(jù)集上進行的實驗表明,所提模型可以有效推斷視頻中的注意力。為進一步證明該方法的實用性,這篇論文將預(yù)測的注意力圖應(yīng)用于兩個社交注視行為識別任務(wù),并表明所得分類器明顯優(yōu)于現(xiàn)有方法。
論文名稱:Weakly supervised discriminative feature learning with state information for person identification
作者:Yu Hong-Xing /Zheng Wei-Shi
發(fā)表時間:2020/2/27
論文鏈接:https://paper.yanxishe.com/review/13409?from=leiphonecolumn_paperreview0312
推薦原因
這篇論文提出使用狀態(tài)信息的弱監(jiān)督學習實現(xiàn)行人識別的方法。
在獲取人工標注的訓練數(shù)據(jù)代價太高的現(xiàn)實下,使用非監(jiān)督學習來識別每個行人不同的視覺特征具有很重要的意義。但由于如攝像頭拍攝位置角度不同等狀態(tài)差異,同一個體的照片都會存在視覺差別,給無監(jiān)督分類學習帶來了巨大困難。而本文就提出了能夠利用這些不需要人工標注的狀態(tài)信息(如攝像頭位置或臉部拍攝角度標注)的弱監(jiān)督學習方法,該方法使用狀態(tài)信息優(yōu)化了假定類別的決策邊界,以及使用狀態(tài)信息調(diào)節(jié)控制了識別特征的偏移。論文在Duke-reID, MultiPIE 和CFP數(shù)據(jù)集上進行測試,結(jié)果遠優(yōu)于其它現(xiàn)有方法,同時論文的模型和標準的有監(jiān)督學習模型也進行了比較相較,并顯示出相當?shù)男阅堋N恼麓a可見https: //github.com/KovenYu/state-information.
論文名稱:Anatomy-aware 3D Human Pose Estimationin Video
作者:Tianlang Chen
發(fā)表時間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13408?from=leiphonecolumn_paperreview0312
推薦原因
研究意義:
本文提出了一種新的視頻中3D人體姿態(tài)估計的解決方案。與傳統(tǒng)的研究進行對比,本文不是直接根據(jù)3D關(guān)節(jié)位置進行研究,而是從人體骨骼解剖的角度出發(fā),將任務(wù)分解為骨骼方向預(yù)測和骨骼長度預(yù)測,從這兩個預(yù)測中完全可以得到三維關(guān)節(jié)位置。
創(chuàng)新點:
1、本文提出了一種具有長跳躍連接的全卷積傳播結(jié)構(gòu),用于骨骼方向的預(yù)測。該網(wǎng)絡(luò)結(jié)構(gòu)可以實現(xiàn)在分層預(yù)測不同骨骼的方向時,而不使用任何耗時的存儲單元(例如LSTM)。
2、采用一種隱含的注意機制將2D關(guān)鍵點可見性分數(shù)作為額外的指導反饋到模型中,這顯著地緩解了許多具有挑戰(zhàn)性的姿勢中的深度歧義。
論文名稱:RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds
作者:Qingyong Hu
發(fā)表時間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13407?from=leiphonecolumn_paperreview0312
推薦原因
本文的核心:
作者主要介紹了RandLA-Net網(wǎng)絡(luò)框架來推斷大規(guī)模點云上的per-point semantics。之所以采用隨機點采樣而不是更復(fù)雜點的選擇方法,是因為可以大大減少內(nèi)存占用的框架計算成本。此外,作者還引入了一種新穎的局部特征聚合模塊,通過使用輕量級的網(wǎng)絡(luò)體系結(jié)構(gòu),最終證明了RandLA-Net網(wǎng)絡(luò)框架可以有效地用來解決大規(guī)模點云問題。
創(chuàng)新點:
作者提出了一種基于簡單高效的隨機將采樣和局部特征聚合的網(wǎng)絡(luò)結(jié)構(gòu)(RandLA-Net)。該方法在數(shù)據(jù)集Semantic3D和SemanticKITTI等大場景點云分割數(shù)據(jù)集上都取得了非常好的效果,從而驗證了該方法的優(yōu)良性,此外通過實驗發(fā)現(xiàn),采用本文提出的網(wǎng)絡(luò)框架,計算效率也是非常高的,明顯優(yōu)于其它模型。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 跨模態(tài)行人重識別;對抗時尚遷移;學會注意錯誤;凸混合整數(shù)規(guī)劃等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。