0
本文作者: AI研習(xí)社 | 2020-03-12 11:54 |
基于進(jìn)化算法和權(quán)值共享的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索
檢測視頻中關(guān)注的視覺目標(biāo)
包含狀態(tài)信息的弱監(jiān)督學(xué)習(xí)方法進(jìn)行人物識別
基于解剖學(xué)感知的視頻3D人體姿態(tài)估計
RandLA-Net:一種新型的大規(guī)模點(diǎn)云語義分割框架
論文名稱:CARS: Continuous Evolution for Efficient Neural Architecture Search
作者:Zhaohui
發(fā)表時間:2020/3/4
論文鏈接:https://paper.yanxishe.com/review/13531?from=leiphonecolumn_paperreview0312
推薦原因
本文為2020CVPR的文章,是國內(nèi)華為公司的一篇paper。本文的主要工作是為了優(yōu)化進(jìn)化算法在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索時候選網(wǎng)絡(luò)訓(xùn)練過長的問題,作者參考了ENAS和NSGA-III。在此基礎(chǔ)上,作者提出了一種新的方法——連續(xù)進(jìn)化結(jié)構(gòu)搜索(continuous evolution architecture search),簡記為CARS。該方法盡可能的利用學(xué)習(xí)到的一切知識,包括上一輪訓(xùn)練的結(jié)構(gòu)和參數(shù)。
創(chuàng)新點(diǎn):
1、開發(fā)了一種有效的連續(xù)進(jìn)化方法用于搜索神經(jīng)網(wǎng)絡(luò)。可以在訓(xùn)練數(shù)據(jù)集上調(diào)整最新一代共享一個SuperNet中參數(shù)的總體架構(gòu)。
2、使用None-dominated排序策略來選擇不同大小的優(yōu)秀網(wǎng)絡(luò),整體耗時僅需要0.5 GPU day。
論文名稱:Detecting Attended Visual Targets in Video
作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.
發(fā)表時間:2020/3/5
論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0312
推薦原因
這篇論文被CVPR 2020接收,要解決的是檢測視頻中關(guān)注目標(biāo)的問題。具體來說,目標(biāo)是確定每個視頻幀中每個人的視線,并正確處理幀外(的情況。所提的新架構(gòu)有效模擬了場景與頭部特征之間的動態(tài)交互,以推斷隨時間變化的關(guān)注目標(biāo)。同時這篇論文引入了一個新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實(shí)世界中復(fù)雜和動態(tài)的注視行為模式。在該數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,所提模型可以有效推斷視頻中的注意力。為進(jìn)一步證明該方法的實(shí)用性,這篇論文將預(yù)測的注意力圖應(yīng)用于兩個社交注視行為識別任務(wù),并表明所得分類器明顯優(yōu)于現(xiàn)有方法。
論文名稱:Weakly supervised discriminative feature learning with state information for person identification
作者:Yu Hong-Xing /Zheng Wei-Shi
發(fā)表時間:2020/2/27
論文鏈接:https://paper.yanxishe.com/review/13409?from=leiphonecolumn_paperreview0312
推薦原因
這篇論文提出使用狀態(tài)信息的弱監(jiān)督學(xué)習(xí)實(shí)現(xiàn)行人識別的方法。
在獲取人工標(biāo)注的訓(xùn)練數(shù)據(jù)代價太高的現(xiàn)實(shí)下,使用非監(jiān)督學(xué)習(xí)來識別每個行人不同的視覺特征具有很重要的意義。但由于如攝像頭拍攝位置角度不同等狀態(tài)差異,同一個體的照片都會存在視覺差別,給無監(jiān)督分類學(xué)習(xí)帶來了巨大困難。而本文就提出了能夠利用這些不需要人工標(biāo)注的狀態(tài)信息(如攝像頭位置或臉部拍攝角度標(biāo)注)的弱監(jiān)督學(xué)習(xí)方法,該方法使用狀態(tài)信息優(yōu)化了假定類別的決策邊界,以及使用狀態(tài)信息調(diào)節(jié)控制了識別特征的偏移。論文在Duke-reID, MultiPIE 和CFP數(shù)據(jù)集上進(jìn)行測試,結(jié)果遠(yuǎn)優(yōu)于其它現(xiàn)有方法,同時論文的模型和標(biāo)準(zhǔn)的有監(jiān)督學(xué)習(xí)模型也進(jìn)行了比較相較,并顯示出相當(dāng)?shù)男阅堋N恼麓a可見https: //github.com/KovenYu/state-information.
論文名稱:Anatomy-aware 3D Human Pose Estimationin Video
作者:Tianlang Chen
發(fā)表時間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13408?from=leiphonecolumn_paperreview0312
推薦原因
研究意義:
本文提出了一種新的視頻中3D人體姿態(tài)估計的解決方案。與傳統(tǒng)的研究進(jìn)行對比,本文不是直接根據(jù)3D關(guān)節(jié)位置進(jìn)行研究,而是從人體骨骼解剖的角度出發(fā),將任務(wù)分解為骨骼方向預(yù)測和骨骼長度預(yù)測,從這兩個預(yù)測中完全可以得到三維關(guān)節(jié)位置。
創(chuàng)新點(diǎn):
1、本文提出了一種具有長跳躍連接的全卷積傳播結(jié)構(gòu),用于骨骼方向的預(yù)測。該網(wǎng)絡(luò)結(jié)構(gòu)可以實(shí)現(xiàn)在分層預(yù)測不同骨骼的方向時,而不使用任何耗時的存儲單元(例如LSTM)。
2、采用一種隱含的注意機(jī)制將2D關(guān)鍵點(diǎn)可見性分?jǐn)?shù)作為額外的指導(dǎo)反饋到模型中,這顯著地緩解了許多具有挑戰(zhàn)性的姿勢中的深度歧義。
論文名稱:RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds
作者:Qingyong Hu
發(fā)表時間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13407?from=leiphonecolumn_paperreview0312
推薦原因
本文的核心:
作者主要介紹了RandLA-Net網(wǎng)絡(luò)框架來推斷大規(guī)模點(diǎn)云上的per-point semantics。之所以采用隨機(jī)點(diǎn)采樣而不是更復(fù)雜點(diǎn)的選擇方法,是因?yàn)榭梢源蟠鬁p少內(nèi)存占用的框架計算成本。此外,作者還引入了一種新穎的局部特征聚合模塊,通過使用輕量級的網(wǎng)絡(luò)體系結(jié)構(gòu),最終證明了RandLA-Net網(wǎng)絡(luò)框架可以有效地用來解決大規(guī)模點(diǎn)云問題。
創(chuàng)新點(diǎn):
作者提出了一種基于簡單高效的隨機(jī)將采樣和局部特征聚合的網(wǎng)絡(luò)結(jié)構(gòu)(RandLA-Net)。該方法在數(shù)據(jù)集Semantic3D和SemanticKITTI等大場景點(diǎn)云分割數(shù)據(jù)集上都取得了非常好的效果,從而驗(yàn)證了該方法的優(yōu)良性,此外通過實(shí)驗(yàn)發(fā)現(xiàn),采用本文提出的網(wǎng)絡(luò)框架,計算效率也是非常高的,明顯優(yōu)于其它模型。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 跨模態(tài)行人重識別;對抗時尚遷移;學(xué)會注意錯誤;凸混合整數(shù)規(guī)劃等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。