丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學術(shù) 正文
發(fā)私信給AI研習社
發(fā)送

0

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等

本文作者: AI研習社 2020-03-12 11:54
導語:為了更好地服務(wù)廣大 AI 青年,AI 研習社正式推出全新「論文」版塊。
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等

  目錄

基于進化算法和權(quán)值共享的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索

檢測視頻中關(guān)注的視覺目標

包含狀態(tài)信息的弱監(jiān)督學習方法進行人物識別

基于解剖學感知的視頻3D人體姿態(tài)估計

RandLA-Net:一種新型的大規(guī)模點云語義分割框架

  基于進化算法和權(quán)值共享的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索

論文名稱:CARS: Continuous Evolution for Efficient Neural Architecture Search

作者:Zhaohui

發(fā)表時間:2020/3/4

論文鏈接:https://paper.yanxishe.com/review/13531?from=leiphonecolumn_paperreview0312

推薦原因

本文為2020CVPR的文章,是國內(nèi)華為公司的一篇paper。本文的主要工作是為了優(yōu)化進化算法在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索時候選網(wǎng)絡(luò)訓練過長的問題,作者參考了ENAS和NSGA-III。在此基礎(chǔ)上,作者提出了一種新的方法——連續(xù)進化結(jié)構(gòu)搜索(continuous evolution architecture search),簡記為CARS。該方法盡可能的利用學習到的一切知識,包括上一輪訓練的結(jié)構(gòu)和參數(shù)。

創(chuàng)新點:

1、開發(fā)了一種有效的連續(xù)進化方法用于搜索神經(jīng)網(wǎng)絡(luò)??梢栽谟柧殧?shù)據(jù)集上調(diào)整最新一代共享一個SuperNet中參數(shù)的總體架構(gòu)。

2、使用None-dominated排序策略來選擇不同大小的優(yōu)秀網(wǎng)絡(luò),整體耗時僅需要0.5 GPU day。

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等

  檢測視頻中關(guān)注的視覺目標

論文名稱:Detecting Attended Visual Targets in Video

作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.

發(fā)表時間:2020/3/5

論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0312

推薦原因

這篇論文被CVPR 2020接收,要解決的是檢測視頻中關(guān)注目標的問題。具體來說,目標是確定每個視頻幀中每個人的視線,并正確處理幀外(的情況。所提的新架構(gòu)有效模擬了場景與頭部特征之間的動態(tài)交互,以推斷隨時間變化的關(guān)注目標。同時這篇論文引入了一個新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實世界中復(fù)雜和動態(tài)的注視行為模式。在該數(shù)據(jù)集上進行的實驗表明,所提模型可以有效推斷視頻中的注意力。為進一步證明該方法的實用性,這篇論文將預(yù)測的注意力圖應(yīng)用于兩個社交注視行為識別任務(wù),并表明所得分類器明顯優(yōu)于現(xiàn)有方法。

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等

  包含狀態(tài)信息的弱監(jiān)督學習方法進行人物識別

論文名稱:Weakly supervised discriminative feature learning with state information for person identification

作者:Yu Hong-Xing /Zheng Wei-Shi

發(fā)表時間:2020/2/27

論文鏈接:https://paper.yanxishe.com/review/13409?from=leiphonecolumn_paperreview0312

推薦原因

這篇論文提出使用狀態(tài)信息的弱監(jiān)督學習實現(xiàn)行人識別的方法。

在獲取人工標注的訓練數(shù)據(jù)代價太高的現(xiàn)實下,使用非監(jiān)督學習來識別每個行人不同的視覺特征具有很重要的意義。但由于如攝像頭拍攝位置角度不同等狀態(tài)差異,同一個體的照片都會存在視覺差別,給無監(jiān)督分類學習帶來了巨大困難。而本文就提出了能夠利用這些不需要人工標注的狀態(tài)信息(如攝像頭位置或臉部拍攝角度標注)的弱監(jiān)督學習方法,該方法使用狀態(tài)信息優(yōu)化了假定類別的決策邊界,以及使用狀態(tài)信息調(diào)節(jié)控制了識別特征的偏移。論文在Duke-reID, MultiPIE 和CFP數(shù)據(jù)集上進行測試,結(jié)果遠優(yōu)于其它現(xiàn)有方法,同時論文的模型和標準的有監(jiān)督學習模型也進行了比較相較,并顯示出相當?shù)男阅堋N恼麓a可見https: //github.com/KovenYu/state-information.

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等

  基于解剖學感知的視頻3D人體姿態(tài)估計

論文名稱:Anatomy-aware 3D Human Pose Estimationin Video

作者:Tianlang Chen

發(fā)表時間:2020/2/1

論文鏈接:https://paper.yanxishe.com/review/13408?from=leiphonecolumn_paperreview0312

推薦原因

研究意義:

本文提出了一種新的視頻中3D人體姿態(tài)估計的解決方案。與傳統(tǒng)的研究進行對比,本文不是直接根據(jù)3D關(guān)節(jié)位置進行研究,而是從人體骨骼解剖的角度出發(fā),將任務(wù)分解為骨骼方向預(yù)測和骨骼長度預(yù)測,從這兩個預(yù)測中完全可以得到三維關(guān)節(jié)位置。

創(chuàng)新點:

1、本文提出了一種具有長跳躍連接的全卷積傳播結(jié)構(gòu),用于骨骼方向的預(yù)測。該網(wǎng)絡(luò)結(jié)構(gòu)可以實現(xiàn)在分層預(yù)測不同骨骼的方向時,而不使用任何耗時的存儲單元(例如LSTM)。

2、采用一種隱含的注意機制將2D關(guān)鍵點可見性分數(shù)作為額外的指導反饋到模型中,這顯著地緩解了許多具有挑戰(zhàn)性的姿勢中的深度歧義。

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等

  RandLA-Net:一種新型的大規(guī)模點云語義分割框架

論文名稱:RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds

作者:Qingyong Hu

發(fā)表時間:2020/2/1

論文鏈接:https://paper.yanxishe.com/review/13407?from=leiphonecolumn_paperreview0312

推薦原因

本文的核心:

作者主要介紹了RandLA-Net網(wǎng)絡(luò)框架來推斷大規(guī)模點云上的per-point semantics。之所以采用隨機點采樣而不是更復(fù)雜點的選擇方法,是因為可以大大減少內(nèi)存占用的框架計算成本。此外,作者還引入了一種新穎的局部特征聚合模塊,通過使用輕量級的網(wǎng)絡(luò)體系結(jié)構(gòu),最終證明了RandLA-Net網(wǎng)絡(luò)框架可以有效地用來解決大規(guī)模點云問題。

創(chuàng)新點:

作者提出了一種基于簡單高效的隨機將采樣和局部特征聚合的網(wǎng)絡(luò)結(jié)構(gòu)(RandLA-Net)。該方法在數(shù)據(jù)集Semantic3D和SemanticKITTI等大場景點云分割數(shù)據(jù)集上都取得了非常好的效果,從而驗證了該方法的優(yōu)良性,此外通過實驗發(fā)現(xiàn),采用本文提出的網(wǎng)絡(luò)框架,計算效率也是非常高的,明顯優(yōu)于其它模型。

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 跨模態(tài)行人重識別;對抗時尚遷移;學會注意錯誤;凸混合整數(shù)規(guī)劃等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標;人物識別;視頻3D人體姿態(tài)估計等

分享:

編輯

聚焦數(shù)據(jù)科學,連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說