0
本文作者: AI研習(xí)社 | 2020-02-04 11:08 |
SMPL-H: 學(xué)習(xí)手部和操縱物體的關(guān)節(jié)重建
SMPLify: 從一個(gè)單一的圖像自動(dòng)估計(jì)三維人體姿態(tài)和形狀
CDGAN:用于圖像到圖像變換的循環(huán)鑒別生成對(duì)抗網(wǎng)絡(luò)
大轉(zhuǎn)彎時(shí)的小霧
SCAIL:用于類(lèi)增量學(xué)習(xí)的分類(lèi)器權(quán)重縮放
論文名稱(chēng):Learning joint reconstruction of hands and manipulated objects
作者:Hasson Yana /Varol Gül /Tzionas Dimitrios /Kalevatykh Igor /Black Michael J. /Laptev Ivan /Schmid Cordelia
發(fā)表時(shí)間:2019/4/11
論文鏈接:https://paper.yanxishe.com/review/9229
推薦原因:可以在ICCV 2019 論文官網(wǎng)https://mano.is.tue.mpg.de/上看到這篇論文。
在SMPL的基礎(chǔ)上,這篇論文描述了相關(guān)研究,實(shí)現(xiàn)了操縱期間重建手和物體的重建工作,這也是非常具有挑戰(zhàn)性的。該論文提出了一個(gè)新的大規(guī)模合成數(shù)據(jù)集,ObMan。
論文名稱(chēng):Keep it SMPL: Automatic Estimation of 3D Human Pose and Shape from a Single Image
作者:Bogo Federica /Kanazawa Angjoo /Lassner Christoph /Gehler Peter /Romero Javier /Black Michael J.
發(fā)表時(shí)間:2016/7/27
論文鏈接:https://paper.yanxishe.com/review/9228
推薦原因:第一個(gè)從單個(gè)不受約束的圖像自動(dòng)估計(jì)人體3D姿勢(shì)及其3D形狀的方法。
首先使用最近發(fā)布的基于CNN的方法DeepCut來(lái)預(yù)測(cè)(自下而上)二維人體關(guān)節(jié)位置。然后,將新近發(fā)布的統(tǒng)計(jì)身體形狀模型SMPL(自頂向下)擬合到2D關(guān)節(jié)。通過(guò)最小化目標(biāo)函數(shù)來(lái)懲罰投影的3D模型關(guān)節(jié)與檢測(cè)到的2D關(guān)節(jié)之間的誤差。
官網(wǎng):http://smplify.is.tue.mpg.de/
論文名稱(chēng):CDGAN: Cyclic Discriminative Generative Adversarial Networks for Image-to-Image Transformation
作者:Babu Kancharagunta Kishan /Dubey Shiv Ram
發(fā)表時(shí)間:2020/1/15
論文鏈接:https://paper.yanxishe.com/review/9223
這篇論文考慮的是圖像到圖像變換的問(wèn)題。
圖像到圖像變換是將一個(gè)視覺(jué)表示的輸入圖像轉(zhuǎn)換為另一種視覺(jué)表示的輸出圖像。近年來(lái),生成對(duì)抗網(wǎng)絡(luò)通過(guò)在其架構(gòu)中引入生成器和判別器網(wǎng)絡(luò),為解決此問(wèn)題提供了新的方向,然而基于GAN生成的圖像質(zhì)量仍然存在一些瑕疵。這篇論文提出了一種新的名為循環(huán)判別式生成對(duì)抗網(wǎng)絡(luò)(CDGAN)的圖像到圖像轉(zhuǎn)換網(wǎng)絡(luò)。CDGAN可以通過(guò)添加除CycleGAN之外的其他判別器網(wǎng)絡(luò)來(lái)生成更高質(zhì)量和更逼真的圖像。這篇論文還在三個(gè)不同的基準(zhǔn)圖像到圖像轉(zhuǎn)換數(shù)據(jù)集上評(píng)估了CDGAN的有效性。
論文名稱(chēng):A Little Fog for a Large Turn
作者:Machiraju Harshitha /Balasubramanian Vineeth N
發(fā)表時(shí)間:2020/1/16
論文鏈接:https://paper.yanxishe.com/review/9224
這篇論文考慮是自動(dòng)導(dǎo)航中的對(duì)抗擾動(dòng)問(wèn)題。
對(duì)抗擾動(dòng)指的是微小而經(jīng)過(guò)細(xì)致調(diào)整出的擾動(dòng)。這類(lèi)擾動(dòng)會(huì)大幅積累,而又不能被自然而然察覺(jué)。這篇論文考慮是自動(dòng)導(dǎo)航中的對(duì)抗擾動(dòng)問(wèn)題,其中不利的天氣條件(例如霧)會(huì)對(duì)基于神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)產(chǎn)生重大影響。此時(shí),天氣條件如同自然的對(duì)抗樣本一樣發(fā)揮作用。這篇論文提出一個(gè)關(guān)于對(duì)抗擾動(dòng)的通用觀點(diǎn),用生成模型來(lái)獲取樣本。受到循環(huán)一致生成對(duì)抗網(wǎng)絡(luò)啟發(fā),這篇論文提出一個(gè)方法來(lái)為輸入的圖像生成對(duì)抗天氣條件。所提公式和結(jié)果表明,這些圖像為自主導(dǎo)航模型中使用的轉(zhuǎn)向模型提供了合適的測(cè)試平臺(tái)。這篇論文還基于感知相似性提出了更自然,更籠統(tǒng)的對(duì)抗性擾動(dòng)定義。
論文名稱(chēng):ScaIL: Classifier Weights Scaling for Class Incremental Learning
作者:Belouadah Eden /Popescu Adrian
發(fā)表時(shí)間:2020/1/16
論文鏈接:https://paper.yanxishe.com/review/9225
這篇論文考慮的是增量學(xué)習(xí)中的分類(lèi)器權(quán)重問(wèn)題。
在基于深度學(xué)習(xí)方法的增量學(xué)習(xí)中,恒定的算力預(yù)算要求所有增量狀態(tài)都使用固定的架構(gòu)。有限的內(nèi)存會(huì)產(chǎn)生數(shù)據(jù)不平衡,從而偏向于新類(lèi),出現(xiàn)預(yù)測(cè)偏差。通常的解決辦法是引入數(shù)據(jù)平衡步驟來(lái)消除這種偏見(jiàn)。這篇論文則是提出一種簡(jiǎn)單但有效的對(duì)歷史類(lèi)型分類(lèi)器權(quán)重進(jìn)行縮放的方法,使其與新類(lèi)型權(quán)重具有可比性??s放尺度利用到增量狀態(tài)級(jí)別統(tǒng)計(jì)信息,并將其應(yīng)用于在類(lèi)的初始狀態(tài)下習(xí)得的分類(lèi)器,以便從其所有可用數(shù)據(jù)中獲利。通過(guò)將其與有限內(nèi)存下的微調(diào)原始模型的方法進(jìn)行比較,這篇論文質(zhì)疑了增量學(xué)習(xí)算法中廣泛使用的蒸餾損失分量的實(shí)用性。在四個(gè)公共數(shù)據(jù)集上根據(jù)競(jìng)爭(zhēng)基準(zhǔn)進(jìn)行的評(píng)估結(jié)果表明,分級(jí)器的權(quán)重縮放尺度和蒸餾移除都是對(duì)結(jié)果有利的。
為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過(guò)論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。
我們希望熱愛(ài)學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。
加入論文作者團(tuán)隊(duì)你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會(huì)門(mén)票福利、獨(dú)家周邊紀(jì)念品等等等。
加入論文作者團(tuán)隊(duì)你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫(xiě)論文解讀
如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微信,備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 新聞推薦系統(tǒng);多路編碼;知識(shí)增強(qiáng)型預(yù)訓(xùn)練模型等
今日 Paper | 小樣本學(xué)習(xí);視覺(jué)情感分類(lèi);神經(jīng)架構(gòu)搜索;自然圖像摳像等
今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等
今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號(hào)推理;深度學(xué)習(xí)聊天機(jī)器人等
今日 Paper | 虛擬試穿網(wǎng)絡(luò);人群計(jì)數(shù)基準(zhǔn);聯(lián)邦元學(xué)習(xí);目標(biāo)檢測(cè)等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 隨機(jī)微分方程;流式自動(dòng)語(yǔ)音識(shí)別;圖像分類(lèi)等
今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等
今日 Paper | 3D手勢(shì)估計(jì);自學(xué)習(xí)機(jī)器人;魯棒語(yǔ)義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過(guò)程等
今日 Paper | 精簡(jiǎn)BERT;面部交換;三維點(diǎn)云;DeepFakes 及 5G 等
今日 Paper | 虛假新聞檢測(cè);馬爾可夫決策過(guò)程;場(chǎng)景文本識(shí)別;博弈論框架等
今日 Paper | 問(wèn)答系統(tǒng);3D人體形狀和姿勢(shì);面部偽造檢測(cè);AdderNet等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。