0
看了2020進(jìn)度:▓▓▓▓▓▓????????? 43% ??,小助是日漸焦慮,感覺太多事情沒有做了~但事實(shí)上,小助又做了好多事情,下面就以“CVPR2020”會議為例,小助給大家細(xì)細(xì)總結(jié)一下。
一:論文解讀公開課
二:1466篇論文合集下載
三:文字論文解讀
四:有獎分享
直播主題:實(shí)體機(jī)器人導(dǎo)航中可遷移的元技能的無監(jiān)督強(qiáng)化學(xué)習(xí)
主講人:李俊成
回放鏈接:http://www.mooc.ai/open/course/766
內(nèi)容介紹:視覺導(dǎo)航任務(wù)要求智能體能夠智能地導(dǎo)航到指定的目標(biāo)。當(dāng)前基于深度強(qiáng)化學(xué)習(xí)的方法往往需要大量的訓(xùn)練數(shù)據(jù),而構(gòu)建豐富的3D仿真環(huán)境以及提供任務(wù)相關(guān)標(biāo)注是十分昂貴的。本文關(guān)注于在低資源的設(shè)定下完成視覺導(dǎo)航任務(wù)。本文通過提出無監(jiān)督強(qiáng)化學(xué)習(xí)方法來獲得具有遷移能力的子策略,使得模型能夠快速遷移到視覺導(dǎo)航任務(wù)。在AI2-THOR環(huán)境中,我們的方法實(shí)現(xiàn)了最佳的性能,進(jìn)一步的實(shí)驗(yàn)分析證明我們的方法學(xué)習(xí)到了一些具備遷移能力的元技能,從而幫助模型實(shí)現(xiàn)更好的泛化。
直播主題:PolarMask: 一階段實(shí)例分割新思路
主講人:謝恩澤
回放鏈接:http://www.mooc.ai/open/course/789
內(nèi)容介紹:實(shí)例分割是計(jì)算機(jī)視覺中一個比較基礎(chǔ)但是比較硬的問題,之前的方法高度依賴物體檢測的結(jié)果來做實(shí)例分割,如MaskR-CNN。實(shí)例分割如何擺脫檢測框的束縛仍然是一個沒有被很好解決的問題。
本次分享中,將主要介紹我們在這個問題的探索:PolarMask:Single Shot Instance Segmentation with Polar Representation。其中我們提出了一種一階段的實(shí)例分割方法,擺脫了檢測框的限制,其次我們的方法并不像傳統(tǒng)分割方法對圖中逐像素分類,而是通過輪廓建模的方式做實(shí)例分割。此外,我們還提出了兩種改進(jìn)手段來持續(xù)提高性能??偠灾?,這篇文章提出了一種新型的一階段的,基于輪廓出發(fā)的實(shí)例分割方法。
直播主題:SGAS:一種基于貪心思想的網(wǎng)絡(luò)結(jié)構(gòu)搜索算法,同時支持CNN和GCN網(wǎng)絡(luò)結(jié)構(gòu)搜索
主講人:李國豪
回放鏈接:http://mooc.yanxishe.com/open/course/800
內(nèi)容介紹:在一般網(wǎng)絡(luò)結(jié)構(gòu)搜索的算法里常常發(fā)生搜索階段表現(xiàn)得很好的(超)網(wǎng)絡(luò)在最后進(jìn)行重新訓(xùn)練評估性能時表現(xiàn)得相當(dāng)較差的現(xiàn)象,這種情況的發(fā)生主要是搜索算法在搜索階段沒法很好地反應(yīng)模型最終評估階段的真正性能,本工作提出一種順序貪心決策的搜索算法減輕了模型性能排名不一致的問題,同時支持CNN和GCN的網(wǎng)絡(luò)結(jié)構(gòu)搜索,并應(yīng)用到了CNN圖像分類,GCN點(diǎn)云分類和GCN生物圖數(shù)據(jù)節(jié)點(diǎn)分類上。
直播主題:數(shù)據(jù)與模型缺陷:不完美場景下的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法
主講人:Louis(騰訊)
回放鏈接:http://mooc.yanxishe.com/open/course/797
內(nèi)容介紹:深度學(xué)習(xí)的成功得益于大量的數(shù)據(jù)和很深的網(wǎng)絡(luò)模型。然而數(shù)據(jù)和模型往往不會特別理想,比如數(shù)據(jù)里存在著很多標(biāo)簽噪音或者考慮到模型的推理速度,神經(jīng)網(wǎng)絡(luò)的層數(shù)不能夠特別深。針對這些情況如何有效的訓(xùn)練神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)領(lǐng)域的熱點(diǎn)話題。特別是對于業(yè)務(wù)場景,數(shù)據(jù)住往存在很多缺陷,讓模型能夠自適應(yīng)的從缺陷數(shù)據(jù)里學(xué)習(xí)是業(yè)務(wù)成功的保障。
本次講座將細(xì)致地講解數(shù)據(jù)和模型缺陷情況下神經(jīng)網(wǎng)絡(luò)的有效訓(xùn)練方法。相關(guān)技術(shù)已經(jīng)在騰訊的眾多業(yè)務(wù)場景上(行人重識別,內(nèi)容審核等)落地。
直播主題:長尾分布下的特征學(xué)習(xí)方法介紹及最新進(jìn)展
主講人:劉家倫
回放鏈接:https://mooc.yanxishe.com/open/course/809
內(nèi)容介紹:真實(shí)世界中的數(shù)據(jù)分布總是呈現(xiàn)出長尾分布模式,即少量類別(頭部類)擁有大量數(shù)據(jù),而大部分的類別(尾部類)僅有少量的樣本,導(dǎo)致模型訓(xùn)練過程中出現(xiàn)嚴(yán)重的偏差,使得長尾分布下的特征學(xué)習(xí)格外困難。
本次分享將重點(diǎn)介紹 CVPR 2020上的一篇論文“Deep Representation Learning on Long-tailed Data: A Learnable Embedding Augmentation Perspective”。本文提出了“feature cloud”的概念,在模型訓(xùn)練過程中,為每一個尾部數(shù)據(jù)構(gòu)建“feature cloud”,就像電子云填充空曠的原子一樣,將一個真實(shí)的尾部特征表示為一簇特征,以此實(shí)現(xiàn)對尾部數(shù)據(jù)的data augmentation。方法簡潔、高效,避免了像GAN這樣復(fù)雜的操作。另外,“feature cloud”在實(shí)際的大規(guī)模呈現(xiàn)長尾分布的業(yè)務(wù)數(shù)據(jù)上取得了顯著的性能提升。
直播主題:自監(jiān)督學(xué)習(xí)在視覺場景中的研究新進(jìn)展
主講人:詹曉航、李順愷
回放鏈接:https://mooc.yanxishe.com/open/course/837
內(nèi)容介紹:自監(jiān)督學(xué)習(xí)是指從數(shù)據(jù)本身產(chǎn)生某種形式的標(biāo)簽并訓(xùn)練神經(jīng)網(wǎng)絡(luò),用來解決某些特定任務(wù)或者學(xué)習(xí)通用的圖像、視頻、語言的特征表達(dá)。在學(xué)術(shù)界,自監(jiān)督學(xué)習(xí)被證明可以解決光流預(yù)測、深度估計(jì)、場景遮擋等問題,不需要額外的人工標(biāo)簽。另外,基于自監(jiān)督學(xué)習(xí)的無監(jiān)督表征學(xué)習(xí)近年來也獲得了飛速發(fā)展,大有超越有監(jiān)督表征學(xué)習(xí)的趨勢。
本次talk將結(jié)合兩篇CVPR 2020 Oral文章,講解自監(jiān)督學(xué)習(xí)方法在場景去遮擋、視覺里程計(jì)方面的最新成果。
本屆CVPR共收到6656篇投稿,有1470篇論文被接收,錄用率約22%,創(chuàng)下十年以來的最低記錄,被稱為“最難的一屆CVPR”。最近官方已經(jīng)發(fā)出了全部論文的下載鏈接,小助整理成了一個文件夾,方便大家一鍵下載。
下載鏈接:https://www.yanxishe.com/resourceDetail/1738
或者掃碼收藏,下載
CVPR2020論文收錄結(jié)果剛剛公布的時候,小助就和小伙伴一起聯(lián)系同學(xué)們做論文解讀的分享了,詳細(xì)的小助就不一一細(xì)說了,大家看鏈接。
01. PolarMask:將實(shí)例分割統(tǒng)一到FCN,有望在工業(yè)界大規(guī)模應(yīng)用
02. RandLA-Net:大場景三維點(diǎn)云語義分割新框架(已開源)
03. 17篇入選CVPR 2020,騰訊優(yōu)圖 9 篇精選論文詳解
04. 化繁為簡,弱監(jiān)督目標(biāo)定位領(lǐng)域的新SOTA - 偽監(jiān)督目標(biāo)定位方法
05. 挑戰(zhàn) 11 種 GAN的圖像真?zhèn)?,DeepFake鑒別一點(diǎn)都不難
06. 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動生成
07. PQ-NET:序列化的三維形狀生成網(wǎng)絡(luò)
08. 視覺-語言導(dǎo)航新篇章:真實(shí)場景下的遠(yuǎn)程物體定位導(dǎo)航任務(wù)
09. 室內(nèi)設(shè)計(jì)師失業(yè)?針對語言描述的自動三維場景設(shè)計(jì)算法
11. 用無監(jiān)督強(qiáng)化學(xué)習(xí)方法來獲得遷移能力
13. IR-Net: 信息保留的二值神經(jīng)網(wǎng)絡(luò)(已開源)
14. 曠視研究院提出Circle Loss,革新深度特征學(xué)習(xí)范式
16. 雙邊分支網(wǎng)絡(luò)BBN:攻堅(jiān)長尾分布的現(xiàn)實(shí)世界任務(wù)
18. MetaFuse:用于人體姿態(tài)估計(jì)的預(yù)訓(xùn)練信息融合模型
20. 8比特?cái)?shù)值也能訓(xùn)練模型?商湯提出訓(xùn)練加速新算法
21. 挖坑等跳,F(xiàn)ineGym,一個面向細(xì)粒度動作分析的層級化高質(zhì)量數(shù)據(jù)集
23. 基于空間修剪的 NAS 算法
24. 可擴(kuò)展且高效,谷歌提出目標(biāo)檢測“新標(biāo)桿”
25. 商湯提出 Anchor-free 目標(biāo)檢測新網(wǎng)絡(luò)
28. 利用跨模態(tài)無監(jiān)督域自適應(yīng)進(jìn)行三維語義分割
CVPR 2020將于6月14日正式線上開始,由于時差和網(wǎng)絡(luò)等各項(xiàng)原因,導(dǎo)致線上參會并沒有達(dá)到“分享工作”“討論工作”的目的,為了讓更多的工作讓更多的人參與討論,了解,我們現(xiàn)在誠摯邀請各位 “CVPR2020”作者同學(xué)進(jìn)行分享,讓你的工作被更多所知。沒有論文的同學(xué)也可以參與哦~
發(fā)布內(nèi)容小組:https://www.yanxishe.com/meeting/44
獲獎規(guī)則:
原作者推薦自己CVPR2020論文,即可獲得AI研習(xí)社定制保溫杯一個
原作者上傳CVPR 2020論文分享視頻(給CVPR官方視頻即可),即可獲得AI研習(xí)社定制保溫杯+AI研習(xí)社定制T恤一件
原作者發(fā)布自己CVPR2020論文解讀,即可獲得AI研習(xí)社定制保溫杯+AI研習(xí)社定制背包一個
非原作者,推薦三篇CVPR2020相關(guān)論文,即可獲得研習(xí)社定制保溫杯一個
非原作者發(fā)布兩篇論文解讀,即可獲得AI研習(xí)社定制T恤一件(如果是轉(zhuǎn)載,請注明來源);若是原創(chuàng)解讀,可獲得AI研習(xí)社定制保溫杯+AI研習(xí)社定制T恤一件
注:視頻請發(fā)到郵箱huangmeiling@yanxishe.com
活動時間:2020年6月12日-6月22日
有任何問題,請聯(lián)系“AI研習(xí)社頂會小助手”微信!
添加小助手,備注【CVPR】,即可進(jìn)入會議交流群
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。