0
本文作者: AI研習(xí)社 | 2020-06-12 17:29 |
看了2020進(jìn)度:▓▓▓▓▓▓????????? 43% ??,小助是日漸焦慮,感覺(jué)太多事情沒(méi)有做了~但事實(shí)上,小助又做了好多事情,下面就以“CVPR2020”會(huì)議為例,小助給大家細(xì)細(xì)總結(jié)一下。
一:論文解讀公開(kāi)課
二:1466篇論文合集下載
三:文字論文解讀
四:有獎(jiǎng)分享
直播主題:實(shí)體機(jī)器人導(dǎo)航中可遷移的元技能的無(wú)監(jiān)督強(qiáng)化學(xué)習(xí)
主講人:李俊成
回放鏈接:http://www.mooc.ai/open/course/766
內(nèi)容介紹:視覺(jué)導(dǎo)航任務(wù)要求智能體能夠智能地導(dǎo)航到指定的目標(biāo)。當(dāng)前基于深度強(qiáng)化學(xué)習(xí)的方法往往需要大量的訓(xùn)練數(shù)據(jù),而構(gòu)建豐富的3D仿真環(huán)境以及提供任務(wù)相關(guān)標(biāo)注是十分昂貴的。本文關(guān)注于在低資源的設(shè)定下完成視覺(jué)導(dǎo)航任務(wù)。本文通過(guò)提出無(wú)監(jiān)督強(qiáng)化學(xué)習(xí)方法來(lái)獲得具有遷移能力的子策略,使得模型能夠快速遷移到視覺(jué)導(dǎo)航任務(wù)。在AI2-THOR環(huán)境中,我們的方法實(shí)現(xiàn)了最佳的性能,進(jìn)一步的實(shí)驗(yàn)分析證明我們的方法學(xué)習(xí)到了一些具備遷移能力的元技能,從而幫助模型實(shí)現(xiàn)更好的泛化。
直播主題:PolarMask: 一階段實(shí)例分割新思路
主講人:謝恩澤
回放鏈接:http://www.mooc.ai/open/course/789
內(nèi)容介紹:實(shí)例分割是計(jì)算機(jī)視覺(jué)中一個(gè)比較基礎(chǔ)但是比較硬的問(wèn)題,之前的方法高度依賴(lài)物體檢測(cè)的結(jié)果來(lái)做實(shí)例分割,如MaskR-CNN。實(shí)例分割如何擺脫檢測(cè)框的束縛仍然是一個(gè)沒(méi)有被很好解決的問(wèn)題。
本次分享中,將主要介紹我們?cè)谶@個(gè)問(wèn)題的探索:PolarMask:Single Shot Instance Segmentation with Polar Representation。其中我們提出了一種一階段的實(shí)例分割方法,擺脫了檢測(cè)框的限制,其次我們的方法并不像傳統(tǒng)分割方法對(duì)圖中逐像素分類(lèi),而是通過(guò)輪廓建模的方式做實(shí)例分割。此外,我們還提出了兩種改進(jìn)手段來(lái)持續(xù)提高性能??偠灾@篇文章提出了一種新型的一階段的,基于輪廓出發(fā)的實(shí)例分割方法。
直播主題:SGAS:一種基于貪心思想的網(wǎng)絡(luò)結(jié)構(gòu)搜索算法,同時(shí)支持CNN和GCN網(wǎng)絡(luò)結(jié)構(gòu)搜索
主講人:李國(guó)豪
回放鏈接:http://mooc.yanxishe.com/open/course/800
內(nèi)容介紹:在一般網(wǎng)絡(luò)結(jié)構(gòu)搜索的算法里常常發(fā)生搜索階段表現(xiàn)得很好的(超)網(wǎng)絡(luò)在最后進(jìn)行重新訓(xùn)練評(píng)估性能時(shí)表現(xiàn)得相當(dāng)較差的現(xiàn)象,這種情況的發(fā)生主要是搜索算法在搜索階段沒(méi)法很好地反應(yīng)模型最終評(píng)估階段的真正性能,本工作提出一種順序貪心決策的搜索算法減輕了模型性能排名不一致的問(wèn)題,同時(shí)支持CNN和GCN的網(wǎng)絡(luò)結(jié)構(gòu)搜索,并應(yīng)用到了CNN圖像分類(lèi),GCN點(diǎn)云分類(lèi)和GCN生物圖數(shù)據(jù)節(jié)點(diǎn)分類(lèi)上。
直播主題:數(shù)據(jù)與模型缺陷:不完美場(chǎng)景下的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法
主講人:Louis(騰訊)
回放鏈接:http://mooc.yanxishe.com/open/course/797
內(nèi)容介紹:深度學(xué)習(xí)的成功得益于大量的數(shù)據(jù)和很深的網(wǎng)絡(luò)模型。然而數(shù)據(jù)和模型往往不會(huì)特別理想,比如數(shù)據(jù)里存在著很多標(biāo)簽噪音或者考慮到模型的推理速度,神經(jīng)網(wǎng)絡(luò)的層數(shù)不能夠特別深。針對(duì)這些情況如何有效的訓(xùn)練神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)領(lǐng)域的熱點(diǎn)話題。特別是對(duì)于業(yè)務(wù)場(chǎng)景,數(shù)據(jù)住往存在很多缺陷,讓模型能夠自適應(yīng)的從缺陷數(shù)據(jù)里學(xué)習(xí)是業(yè)務(wù)成功的保障。
本次講座將細(xì)致地講解數(shù)據(jù)和模型缺陷情況下神經(jīng)網(wǎng)絡(luò)的有效訓(xùn)練方法。相關(guān)技術(shù)已經(jīng)在騰訊的眾多業(yè)務(wù)場(chǎng)景上(行人重識(shí)別,內(nèi)容審核等)落地。
直播主題:長(zhǎng)尾分布下的特征學(xué)習(xí)方法介紹及最新進(jìn)展
主講人:劉家倫
回放鏈接:https://mooc.yanxishe.com/open/course/809
內(nèi)容介紹:真實(shí)世界中的數(shù)據(jù)分布總是呈現(xiàn)出長(zhǎng)尾分布模式,即少量類(lèi)別(頭部類(lèi))擁有大量數(shù)據(jù),而大部分的類(lèi)別(尾部類(lèi))僅有少量的樣本,導(dǎo)致模型訓(xùn)練過(guò)程中出現(xiàn)嚴(yán)重的偏差,使得長(zhǎng)尾分布下的特征學(xué)習(xí)格外困難。
本次分享將重點(diǎn)介紹 CVPR 2020上的一篇論文“Deep Representation Learning on Long-tailed Data: A Learnable Embedding Augmentation Perspective”。本文提出了“feature cloud”的概念,在模型訓(xùn)練過(guò)程中,為每一個(gè)尾部數(shù)據(jù)構(gòu)建“feature cloud”,就像電子云填充空曠的原子一樣,將一個(gè)真實(shí)的尾部特征表示為一簇特征,以此實(shí)現(xiàn)對(duì)尾部數(shù)據(jù)的data augmentation。方法簡(jiǎn)潔、高效,避免了像GAN這樣復(fù)雜的操作。另外,“feature cloud”在實(shí)際的大規(guī)模呈現(xiàn)長(zhǎng)尾分布的業(yè)務(wù)數(shù)據(jù)上取得了顯著的性能提升。
直播主題:自監(jiān)督學(xué)習(xí)在視覺(jué)場(chǎng)景中的研究新進(jìn)展
主講人:詹曉航、李順愷
回放鏈接:https://mooc.yanxishe.com/open/course/837
內(nèi)容介紹:自監(jiān)督學(xué)習(xí)是指從數(shù)據(jù)本身產(chǎn)生某種形式的標(biāo)簽并訓(xùn)練神經(jīng)網(wǎng)絡(luò),用來(lái)解決某些特定任務(wù)或者學(xué)習(xí)通用的圖像、視頻、語(yǔ)言的特征表達(dá)。在學(xué)術(shù)界,自監(jiān)督學(xué)習(xí)被證明可以解決光流預(yù)測(cè)、深度估計(jì)、場(chǎng)景遮擋等問(wèn)題,不需要額外的人工標(biāo)簽。另外,基于自監(jiān)督學(xué)習(xí)的無(wú)監(jiān)督表征學(xué)習(xí)近年來(lái)也獲得了飛速發(fā)展,大有超越有監(jiān)督表征學(xué)習(xí)的趨勢(shì)。
本次talk將結(jié)合兩篇CVPR 2020 Oral文章,講解自監(jiān)督學(xué)習(xí)方法在場(chǎng)景去遮擋、視覺(jué)里程計(jì)方面的最新成果。
本屆CVPR共收到6656篇投稿,有1470篇論文被接收,錄用率約22%,創(chuàng)下十年以來(lái)的最低記錄,被稱(chēng)為“最難的一屆CVPR”。最近官方已經(jīng)發(fā)出了全部論文的下載鏈接,小助整理成了一個(gè)文件夾,方便大家一鍵下載。
下載鏈接:https://www.yanxishe.com/resourceDetail/1738
或者掃碼收藏,下載
CVPR2020論文收錄結(jié)果剛剛公布的時(shí)候,小助就和小伙伴一起聯(lián)系同學(xué)們做論文解讀的分享了,詳細(xì)的小助就不一一細(xì)說(shuō)了,大家看鏈接。
01. PolarMask:將實(shí)例分割統(tǒng)一到FCN,有望在工業(yè)界大規(guī)模應(yīng)用
02. RandLA-Net:大場(chǎng)景三維點(diǎn)云語(yǔ)義分割新框架(已開(kāi)源)
03. 17篇入選CVPR 2020,騰訊優(yōu)圖 9 篇精選論文詳解
04. 化繁為簡(jiǎn),弱監(jiān)督目標(biāo)定位領(lǐng)域的新SOTA - 偽監(jiān)督目標(biāo)定位方法
05. 挑戰(zhàn) 11 種 GAN的圖像真?zhèn)?,DeepFake鑒別一點(diǎn)都不難
06. 看圖說(shuō)話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成
07. PQ-NET:序列化的三維形狀生成網(wǎng)絡(luò)
08. 視覺(jué)-語(yǔ)言導(dǎo)航新篇章:真實(shí)場(chǎng)景下的遠(yuǎn)程物體定位導(dǎo)航任務(wù)
09. 室內(nèi)設(shè)計(jì)師失業(yè)?針對(duì)語(yǔ)言描述的自動(dòng)三維場(chǎng)景設(shè)計(jì)算法
10. 深度視覺(jué)推理2.0:組合式目標(biāo)指代理解
11. 用無(wú)監(jiān)督強(qiáng)化學(xué)習(xí)方法來(lái)獲得遷移能力
13. IR-Net: 信息保留的二值神經(jīng)網(wǎng)絡(luò)(已開(kāi)源)
14. 曠視研究院提出Circle Loss,革新深度特征學(xué)習(xí)范式
16. 雙邊分支網(wǎng)絡(luò)BBN:攻堅(jiān)長(zhǎng)尾分布的現(xiàn)實(shí)世界任務(wù)
18. MetaFuse:用于人體姿態(tài)估計(jì)的預(yù)訓(xùn)練信息融合模型
19. 針對(duì)VI-ReID的分層跨模態(tài)行人識(shí)別
20. 8比特?cái)?shù)值也能訓(xùn)練模型?商湯提出訓(xùn)練加速新算法
21. 挖坑等跳,F(xiàn)ineGym,一個(gè)面向細(xì)粒度動(dòng)作分析的層級(jí)化高質(zhì)量數(shù)據(jù)集
23. 基于空間修剪的 NAS 算法
24. 可擴(kuò)展且高效,谷歌提出目標(biāo)檢測(cè)“新標(biāo)桿”
25. 商湯提出 Anchor-free 目標(biāo)檢測(cè)新網(wǎng)絡(luò)
28. 利用跨模態(tài)無(wú)監(jiān)督域自適應(yīng)進(jìn)行三維語(yǔ)義分割
CVPR 2020將于6月14日正式線上開(kāi)始,由于時(shí)差和網(wǎng)絡(luò)等各項(xiàng)原因,導(dǎo)致線上參會(huì)并沒(méi)有達(dá)到“分享工作”“討論工作”的目的,為了讓更多的工作讓更多的人參與討論,了解,我們現(xiàn)在誠(chéng)摯邀請(qǐng)各位 “CVPR2020”作者同學(xué)進(jìn)行分享,讓你的工作被更多所知。沒(méi)有論文的同學(xué)也可以參與哦~
發(fā)布內(nèi)容小組:https://www.yanxishe.com/meeting/44
獲獎(jiǎng)規(guī)則:
原作者推薦自己CVPR2020論文,即可獲得AI研習(xí)社定制保溫杯一個(gè)
原作者上傳CVPR 2020論文分享視頻(給CVPR官方視頻即可),即可獲得AI研習(xí)社定制保溫杯+AI研習(xí)社定制T恤一件
原作者發(fā)布自己CVPR2020論文解讀,即可獲得AI研習(xí)社定制保溫杯+AI研習(xí)社定制背包一個(gè)
非原作者,推薦三篇CVPR2020相關(guān)論文,即可獲得研習(xí)社定制保溫杯一個(gè)
非原作者發(fā)布兩篇論文解讀,即可獲得AI研習(xí)社定制T恤一件(如果是轉(zhuǎn)載,請(qǐng)注明來(lái)源);若是原創(chuàng)解讀,可獲得AI研習(xí)社定制保溫杯+AI研習(xí)社定制T恤一件
注:視頻請(qǐng)發(fā)到郵箱huangmeiling@yanxishe.com
活動(dòng)時(shí)間:2020年6月12日-6月22日
有任何問(wèn)題,請(qǐng)聯(lián)系“AI研習(xí)社頂會(huì)小助手”微信!
添加小助手,備注【CVPR】,即可進(jìn)入會(huì)議交流群
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。