丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

本文作者: AI研習(xí)社 2020-02-04 11:08
導(dǎo)語(yǔ):為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

  目錄

  • SMPL-H: 學(xué)習(xí)手部和操縱物體的關(guān)節(jié)重建

  • SMPLify: 從一個(gè)單一的圖像自動(dòng)估計(jì)三維人體姿態(tài)和形狀

  • CDGAN:用于圖像到圖像變換的循環(huán)鑒別生成對(duì)抗網(wǎng)絡(luò)

  • 大轉(zhuǎn)彎時(shí)的小霧

  • SCAIL:用于類(lèi)增量學(xué)習(xí)的分類(lèi)器權(quán)重縮放

  SMPL-H: 學(xué)習(xí)手部和操縱物體的關(guān)節(jié)重建

論文名稱(chēng):Learning joint reconstruction of hands and manipulated objects

作者:Hasson Yana /Varol Gül /Tzionas Dimitrios /Kalevatykh Igor /Black Michael J. /Laptev Ivan /Schmid Cordelia

發(fā)表時(shí)間:2019/4/11

論文鏈接:https://paper.yanxishe.com/review/9229

推薦原因:可以在ICCV 2019 論文官網(wǎng)https://mano.is.tue.mpg.de/上看到這篇論文。

在SMPL的基礎(chǔ)上,這篇論文描述了相關(guān)研究,實(shí)現(xiàn)了操縱期間重建手和物體的重建工作,這也是非常具有挑戰(zhàn)性的。該論文提出了一個(gè)新的大規(guī)模合成數(shù)據(jù)集,ObMan。

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

  SMPLify: 從一個(gè)單一的圖像自動(dòng)估計(jì)三維人體姿態(tài)和形狀

論文名稱(chēng):Keep it SMPL: Automatic Estimation of 3D Human Pose and Shape from a Single Image

作者:Bogo Federica /Kanazawa Angjoo /Lassner Christoph /Gehler Peter /Romero Javier /Black Michael J.

發(fā)表時(shí)間:2016/7/27

論文鏈接:https://paper.yanxishe.com/review/9228

推薦原因:第一個(gè)從單個(gè)不受約束的圖像自動(dòng)估計(jì)人體3D姿勢(shì)及其3D形狀的方法。

首先使用最近發(fā)布的基于CNN的方法DeepCut來(lái)預(yù)測(cè)(自下而上)二維人體關(guān)節(jié)位置。然后,將新近發(fā)布的統(tǒng)計(jì)身體形狀模型SMPL(自頂向下)擬合到2D關(guān)節(jié)。通過(guò)最小化目標(biāo)函數(shù)來(lái)懲罰投影的3D模型關(guān)節(jié)與檢測(cè)到的2D關(guān)節(jié)之間的誤差。

官網(wǎng):http://smplify.is.tue.mpg.de/

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

  CDGAN:用于圖像到圖像變換的循環(huán)鑒別生成對(duì)抗網(wǎng)絡(luò)

論文名稱(chēng):CDGAN: Cyclic Discriminative Generative Adversarial Networks for Image-to-Image Transformation

作者:Babu Kancharagunta Kishan /Dubey Shiv Ram

發(fā)表時(shí)間:2020/1/15

論文鏈接:https://paper.yanxishe.com/review/9223

這篇論文考慮的是圖像到圖像變換的問(wèn)題。

圖像到圖像變換是將一個(gè)視覺(jué)表示的輸入圖像轉(zhuǎn)換為另一種視覺(jué)表示的輸出圖像。近年來(lái),生成對(duì)抗網(wǎng)絡(luò)通過(guò)在其架構(gòu)中引入生成器和判別器網(wǎng)絡(luò),為解決此問(wèn)題提供了新的方向,然而基于GAN生成的圖像質(zhì)量仍然存在一些瑕疵。這篇論文提出了一種新的名為循環(huán)判別式生成對(duì)抗網(wǎng)絡(luò)(CDGAN)的圖像到圖像轉(zhuǎn)換網(wǎng)絡(luò)。CDGAN可以通過(guò)添加除CycleGAN之外的其他判別器網(wǎng)絡(luò)來(lái)生成更高質(zhì)量和更逼真的圖像。這篇論文還在三個(gè)不同的基準(zhǔn)圖像到圖像轉(zhuǎn)換數(shù)據(jù)集上評(píng)估了CDGAN的有效性。

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

  大轉(zhuǎn)彎時(shí)的小霧

論文名稱(chēng):A Little Fog for a Large Turn

作者:Machiraju Harshitha /Balasubramanian Vineeth N

發(fā)表時(shí)間:2020/1/16

論文鏈接:https://paper.yanxishe.com/review/9224

這篇論文考慮是自動(dòng)導(dǎo)航中的對(duì)抗擾動(dòng)問(wèn)題。

對(duì)抗擾動(dòng)指的是微小而經(jīng)過(guò)細(xì)致調(diào)整出的擾動(dòng)。這類(lèi)擾動(dòng)會(huì)大幅積累,而又不能被自然而然察覺(jué)。這篇論文考慮是自動(dòng)導(dǎo)航中的對(duì)抗擾動(dòng)問(wèn)題,其中不利的天氣條件(例如霧)會(huì)對(duì)基于神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)產(chǎn)生重大影響。此時(shí),天氣條件如同自然的對(duì)抗樣本一樣發(fā)揮作用。這篇論文提出一個(gè)關(guān)于對(duì)抗擾動(dòng)的通用觀點(diǎn),用生成模型來(lái)獲取樣本。受到循環(huán)一致生成對(duì)抗網(wǎng)絡(luò)啟發(fā),這篇論文提出一個(gè)方法來(lái)為輸入的圖像生成對(duì)抗天氣條件。所提公式和結(jié)果表明,這些圖像為自主導(dǎo)航模型中使用的轉(zhuǎn)向模型提供了合適的測(cè)試平臺(tái)。這篇論文還基于感知相似性提出了更自然,更籠統(tǒng)的對(duì)抗性擾動(dòng)定義。

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

  SCAIL:用于類(lèi)增量學(xué)習(xí)的分類(lèi)器權(quán)重縮放

論文名稱(chēng):ScaIL: Classifier Weights Scaling for Class Incremental Learning

作者:Belouadah Eden /Popescu Adrian

發(fā)表時(shí)間:2020/1/16

論文鏈接:https://paper.yanxishe.com/review/9225

這篇論文考慮的是增量學(xué)習(xí)中的分類(lèi)器權(quán)重問(wèn)題。

在基于深度學(xué)習(xí)方法的增量學(xué)習(xí)中,恒定的算力預(yù)算要求所有增量狀態(tài)都使用固定的架構(gòu)。有限的內(nèi)存會(huì)產(chǎn)生數(shù)據(jù)不平衡,從而偏向于新類(lèi),出現(xiàn)預(yù)測(cè)偏差。通常的解決辦法是引入數(shù)據(jù)平衡步驟來(lái)消除這種偏見(jiàn)。這篇論文則是提出一種簡(jiǎn)單但有效的對(duì)歷史類(lèi)型分類(lèi)器權(quán)重進(jìn)行縮放的方法,使其與新類(lèi)型權(quán)重具有可比性??s放尺度利用到增量狀態(tài)級(jí)別統(tǒng)計(jì)信息,并將其應(yīng)用于在類(lèi)的初始狀態(tài)下習(xí)得的分類(lèi)器,以便從其所有可用數(shù)據(jù)中獲利。通過(guò)將其與有限內(nèi)存下的微調(diào)原始模型的方法進(jìn)行比較,這篇論文質(zhì)疑了增量學(xué)習(xí)算法中廣泛使用的蒸餾損失分量的實(shí)用性。在四個(gè)公共數(shù)據(jù)集上根據(jù)競(jìng)爭(zhēng)基準(zhǔn)進(jìn)行的評(píng)估結(jié)果表明,分級(jí)器的權(quán)重縮放尺度和蒸餾移除都是對(duì)結(jié)果有利的。

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等
今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

  論文作者團(tuán)隊(duì)招募

為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過(guò)論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。

我們希望熱愛(ài)學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。

加入論文作者團(tuán)隊(duì)你可以獲得

    1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星

    2.豐厚的稿酬

    3.AI 名企內(nèi)推、大會(huì)門(mén)票福利、獨(dú)家周邊紀(jì)念品等等等。

加入論文作者團(tuán)隊(duì)你需要:

    1.將你喜歡的論文推薦給廣大的研習(xí)社社友

    2.撰寫(xiě)論文解讀

如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微信,備注“論文兼職作者”

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 動(dòng)態(tài)手勢(shì)識(shí)別;領(lǐng)域獨(dú)立無(wú)監(jiān)督學(xué)習(xí);基于BERT的在線(xiàn)金融文本情感分析等

今日 Paper | 新聞推薦系統(tǒng);多路編碼;知識(shí)增強(qiáng)型預(yù)訓(xùn)練模型等

今日 Paper | 小樣本學(xué)習(xí);視覺(jué)情感分類(lèi);神經(jīng)架構(gòu)搜索;自然圖像摳像等

今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號(hào)推理;深度學(xué)習(xí)聊天機(jī)器人等

今日 Paper | 虛擬試穿網(wǎng)絡(luò);人群計(jì)數(shù)基準(zhǔn);聯(lián)邦元學(xué)習(xí);目標(biāo)檢測(cè)等

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

今日 Paper | 隨機(jī)微分方程;流式自動(dòng)語(yǔ)音識(shí)別;圖像分類(lèi)等

今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

今日 Paper | 3D手勢(shì)估計(jì);自學(xué)習(xí)機(jī)器人;魯棒語(yǔ)義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過(guò)程等

今日 Paper | 精簡(jiǎn)BERT;面部交換;三維點(diǎn)云;DeepFakes 及 5G 等

今日 Paper | 虛假新聞檢測(cè);馬爾可夫決策過(guò)程;場(chǎng)景文本識(shí)別;博弈論框架等

今日 Paper | 問(wèn)答系統(tǒng);3D人體形狀和姿勢(shì);面部偽造檢測(cè);AdderNet等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

今日 Paper | 手部和物體重建;三維人體姿態(tài)估計(jì);圖像到圖像變換等

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開(kāi)發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話(huà)
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)