丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等

本文作者: AI研習(xí)社 2020-03-12 11:54
導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等

  目錄

基于進(jìn)化算法和權(quán)值共享的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索

檢測視頻中關(guān)注的視覺目標(biāo)

包含狀態(tài)信息的弱監(jiān)督學(xué)習(xí)方法進(jìn)行人物識別

基于解剖學(xué)感知的視頻3D人體姿態(tài)估計

RandLA-Net:一種新型的大規(guī)模點(diǎn)云語義分割框架

  基于進(jìn)化算法和權(quán)值共享的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索

論文名稱:CARS: Continuous Evolution for Efficient Neural Architecture Search

作者:Zhaohui

發(fā)表時間:2020/3/4

論文鏈接:https://paper.yanxishe.com/review/13531?from=leiphonecolumn_paperreview0312

推薦原因

本文為2020CVPR的文章,是國內(nèi)華為公司的一篇paper。本文的主要工作是為了優(yōu)化進(jìn)化算法在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索時候選網(wǎng)絡(luò)訓(xùn)練過長的問題,作者參考了ENAS和NSGA-III。在此基礎(chǔ)上,作者提出了一種新的方法——連續(xù)進(jìn)化結(jié)構(gòu)搜索(continuous evolution architecture search),簡記為CARS。該方法盡可能的利用學(xué)習(xí)到的一切知識,包括上一輪訓(xùn)練的結(jié)構(gòu)和參數(shù)。

創(chuàng)新點(diǎn):

1、開發(fā)了一種有效的連續(xù)進(jìn)化方法用于搜索神經(jīng)網(wǎng)絡(luò)。可以在訓(xùn)練數(shù)據(jù)集上調(diào)整最新一代共享一個SuperNet中參數(shù)的總體架構(gòu)。

2、使用None-dominated排序策略來選擇不同大小的優(yōu)秀網(wǎng)絡(luò),整體耗時僅需要0.5 GPU day。

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等

  檢測視頻中關(guān)注的視覺目標(biāo)

論文名稱:Detecting Attended Visual Targets in Video

作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.

發(fā)表時間:2020/3/5

論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0312

推薦原因

這篇論文被CVPR 2020接收,要解決的是檢測視頻中關(guān)注目標(biāo)的問題。具體來說,目標(biāo)是確定每個視頻幀中每個人的視線,并正確處理幀外(的情況。所提的新架構(gòu)有效模擬了場景與頭部特征之間的動態(tài)交互,以推斷隨時間變化的關(guān)注目標(biāo)。同時這篇論文引入了一個新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實(shí)世界中復(fù)雜和動態(tài)的注視行為模式。在該數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,所提模型可以有效推斷視頻中的注意力。為進(jìn)一步證明該方法的實(shí)用性,這篇論文將預(yù)測的注意力圖應(yīng)用于兩個社交注視行為識別任務(wù),并表明所得分類器明顯優(yōu)于現(xiàn)有方法。

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等

  包含狀態(tài)信息的弱監(jiān)督學(xué)習(xí)方法進(jìn)行人物識別

論文名稱:Weakly supervised discriminative feature learning with state information for person identification

作者:Yu Hong-Xing /Zheng Wei-Shi

發(fā)表時間:2020/2/27

論文鏈接:https://paper.yanxishe.com/review/13409?from=leiphonecolumn_paperreview0312

推薦原因

這篇論文提出使用狀態(tài)信息的弱監(jiān)督學(xué)習(xí)實(shí)現(xiàn)行人識別的方法。

在獲取人工標(biāo)注的訓(xùn)練數(shù)據(jù)代價太高的現(xiàn)實(shí)下,使用非監(jiān)督學(xué)習(xí)來識別每個行人不同的視覺特征具有很重要的意義。但由于如攝像頭拍攝位置角度不同等狀態(tài)差異,同一個體的照片都會存在視覺差別,給無監(jiān)督分類學(xué)習(xí)帶來了巨大困難。而本文就提出了能夠利用這些不需要人工標(biāo)注的狀態(tài)信息(如攝像頭位置或臉部拍攝角度標(biāo)注)的弱監(jiān)督學(xué)習(xí)方法,該方法使用狀態(tài)信息優(yōu)化了假定類別的決策邊界,以及使用狀態(tài)信息調(diào)節(jié)控制了識別特征的偏移。論文在Duke-reID, MultiPIE 和CFP數(shù)據(jù)集上進(jìn)行測試,結(jié)果遠(yuǎn)優(yōu)于其它現(xiàn)有方法,同時論文的模型和標(biāo)準(zhǔn)的有監(jiān)督學(xué)習(xí)模型也進(jìn)行了比較相較,并顯示出相當(dāng)?shù)男阅堋N恼麓a可見https: //github.com/KovenYu/state-information.

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等

  基于解剖學(xué)感知的視頻3D人體姿態(tài)估計

論文名稱:Anatomy-aware 3D Human Pose Estimationin Video

作者:Tianlang Chen

發(fā)表時間:2020/2/1

論文鏈接:https://paper.yanxishe.com/review/13408?from=leiphonecolumn_paperreview0312

推薦原因

研究意義:

本文提出了一種新的視頻中3D人體姿態(tài)估計的解決方案。與傳統(tǒng)的研究進(jìn)行對比,本文不是直接根據(jù)3D關(guān)節(jié)位置進(jìn)行研究,而是從人體骨骼解剖的角度出發(fā),將任務(wù)分解為骨骼方向預(yù)測和骨骼長度預(yù)測,從這兩個預(yù)測中完全可以得到三維關(guān)節(jié)位置。

創(chuàng)新點(diǎn):

1、本文提出了一種具有長跳躍連接的全卷積傳播結(jié)構(gòu),用于骨骼方向的預(yù)測。該網(wǎng)絡(luò)結(jié)構(gòu)可以實(shí)現(xiàn)在分層預(yù)測不同骨骼的方向時,而不使用任何耗時的存儲單元(例如LSTM)。

2、采用一種隱含的注意機(jī)制將2D關(guān)鍵點(diǎn)可見性分?jǐn)?shù)作為額外的指導(dǎo)反饋到模型中,這顯著地緩解了許多具有挑戰(zhàn)性的姿勢中的深度歧義。

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等

  RandLA-Net:一種新型的大規(guī)模點(diǎn)云語義分割框架

論文名稱:RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds

作者:Qingyong Hu

發(fā)表時間:2020/2/1

論文鏈接:https://paper.yanxishe.com/review/13407?from=leiphonecolumn_paperreview0312

推薦原因

本文的核心:

作者主要介紹了RandLA-Net網(wǎng)絡(luò)框架來推斷大規(guī)模點(diǎn)云上的per-point semantics。之所以采用隨機(jī)點(diǎn)采樣而不是更復(fù)雜點(diǎn)的選擇方法,是因?yàn)榭梢源蟠鬁p少內(nèi)存占用的框架計算成本。此外,作者還引入了一種新穎的局部特征聚合模塊,通過使用輕量級的網(wǎng)絡(luò)體系結(jié)構(gòu),最終證明了RandLA-Net網(wǎng)絡(luò)框架可以有效地用來解決大規(guī)模點(diǎn)云問題。

創(chuàng)新點(diǎn):

作者提出了一種基于簡單高效的隨機(jī)將采樣和局部特征聚合的網(wǎng)絡(luò)結(jié)構(gòu)(RandLA-Net)。該方法在數(shù)據(jù)集Semantic3D和SemanticKITTI等大場景點(diǎn)云分割數(shù)據(jù)集上都取得了非常好的效果,從而驗(yàn)證了該方法的優(yōu)良性,此外通過實(shí)驗(yàn)發(fā)現(xiàn),采用本文提出的網(wǎng)絡(luò)框架,計算效率也是非常高的,明顯優(yōu)于其它模型。

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等
今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 跨模態(tài)行人重識別;對抗時尚遷移;學(xué)會注意錯誤;凸混合整數(shù)規(guī)劃等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

今日 Paper | 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索;視覺目標(biāo);人物識別;視頻3D人體姿態(tài)估計等

分享:

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說