丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等

本文作者: AI研習(xí)社 2020-04-14 10:20
導(dǎo)語(yǔ):為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。

今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等

  目錄

CurricularFace: 深度人臉識(shí)別的適應(yīng)性課程學(xué)習(xí)損失

MaskGAN:多樣和交互的面部圖像操作

結(jié)合檢測(cè)和跟蹤的視頻人體姿態(tài)估計(jì)

通過(guò)解糾纏表示的局部面部妝容遷移

基于自動(dòng)生成的訓(xùn)練數(shù)據(jù)進(jìn)行大規(guī)模事件抽取學(xué)習(xí)

  CurricularFace: 深度人臉識(shí)別的適應(yīng)性課程學(xué)習(xí)損失

論文名稱(chēng):CurricularFace: Adaptive Curriculum Learning Loss for Deep Face Recognition

作者:Huang Yuge /Wang Yuhan /Tai Ying /Liu Xiaoming /Shen Pengcheng /Li Shaoxin /Li Jilin /Huang Feiyue

發(fā)表時(shí)間:2020/4/1

論文鏈接:https://paper.yanxishe.com/review/15951?from=leiphonecolumn_paperreview0414

推薦原因

這是騰訊優(yōu)圖入選CVPR 2020的論文,考慮的是人臉識(shí)別的問(wèn)題。

在人臉識(shí)別中,設(shè)計(jì)基于邊際的損失函數(shù)可以增加不同類(lèi)別之間的特征邊界,以增強(qiáng)可分辨性。這篇論文提出了一種新的自適應(yīng)課程學(xué)習(xí)損失(Adaptive Curriculum Learning Loss,CurricularFace)策略,將課程學(xué)習(xí)的思想嵌入到損失函數(shù)中,從而實(shí)現(xiàn)一種用于深層人臉識(shí)別的新訓(xùn)練策略,該策略主要針對(duì)早期訓(xùn)練階段中的簡(jiǎn)單樣本和困難樣本。CurricularFace在不同的訓(xùn)練階段自適應(yīng)地調(diào)整了簡(jiǎn)單樣本和硬樣本的相對(duì)權(quán)重。在每個(gè)階段,根據(jù)不同難度將不同樣本分配給不同重要性,從而在實(shí)驗(yàn)中優(yōu)于其他方法。

今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等

  MaskGAN: 多樣和交互的面部圖像操作

論文名稱(chēng):MaskGAN: Towards Diverse and Interactive Facial Image Manipulation

作者:Lee Cheng-Han /Liu Ziwei /Wu Lingyun /Luo Ping

發(fā)表時(shí)間:2019/7/27

論文鏈接:https://paper.yanxishe.com/review/15950?from=leiphonecolumn_paperreview0414

推薦原因

這篇論文被CVPR 2020接收,處理的是面部圖像操作。

這篇論文提出了一個(gè)支持多樣化和交互式面部操作的新的框架,稱(chēng)為MaskGAN。MaskGAN主要由兩部分組成:密集映射網(wǎng)絡(luò)(DMN)和編輯行為模擬訓(xùn)練(EBST),其中DMN學(xué)習(xí)自由形式的用戶(hù)修改的MASK和目標(biāo)圖像之間的樣式映射,從而支持不同的生成結(jié)果。EBST可以對(duì)源MASK上的用戶(hù)編輯行為建模,使整個(gè)框架對(duì)各種操作輸入更加健壯。這篇論文還構(gòu)建了一個(gè)大規(guī)模的高分辨率人臉數(shù)據(jù)集,并使用了名為CelebAMask-HQ的細(xì)粒度MASK標(biāo)注規(guī)則。評(píng)估結(jié)果顯示MaskGAN在屬性遷移和樣式復(fù)制這兩個(gè)任務(wù)上優(yōu)于其他方法。

今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等
今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等

  結(jié)合檢測(cè)和跟蹤的視頻人體姿態(tài)估計(jì)

論文名稱(chēng):Combining detection and tracking for human pose estimation in videos

作者:Wang Manchen /Tighe Joseph /Modolo Davide

發(fā)表時(shí)間:2020/3/30

論文鏈接:https://paper.yanxishe.com/review/15949?from=leiphonecolumn_paperreview0414

推薦原因

這篇論文被CVPR 2020接收,要解決的是人體姿態(tài)估計(jì)的問(wèn)題。

與現(xiàn)有方法相比,這篇論文提出的新方法通過(guò)在時(shí)間上向前和向后傳播已知人員的位置并在這些區(qū)域中搜索姿勢(shì),來(lái)預(yù)測(cè)未定位的人員實(shí)例。新方法包括三個(gè)部分:1)一個(gè)剪輯跟蹤網(wǎng)絡(luò),對(duì)小型視頻剪輯執(zhí)行人體關(guān)節(jié)檢測(cè)和跟蹤;2)視頻跟蹤管道,將剪輯跟蹤網(wǎng)絡(luò)產(chǎn)生的固定長(zhǎng)度的小軌道合并到任意長(zhǎng)度軌道中;3)時(shí)空融合過(guò)程,根據(jù)空間和時(shí)間平滑項(xiàng)精煉關(guān)節(jié)位置。得益于剪輯跟蹤網(wǎng)絡(luò)和合并程序的精確性,新方法可以產(chǎn)生非常準(zhǔn)確的聯(lián)合預(yù)測(cè),且可解決棘手場(chǎng)景(如糾纏不清的人)的常見(jiàn)錯(cuò)誤。

今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等
今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等

  通過(guò)解糾纏表示的局部面部妝容遷移

論文名稱(chēng):Local Facial Makeup Transfer via Disentangled Representation

作者:Sun Zhaoyang /Liu Wenxuan /Liu Feng /Liu Ryan Wen /Xiong Shengwu

發(fā)表時(shí)間:2020/3/27

論文鏈接:https://paper.yanxishe.com/review/15948?from=leiphonecolumn_paperreview0414

推薦原因

這篇論文考慮的是面部妝容遷移的問(wèn)題。

面部妝容遷移的目的是在任意給定的化妝圖像中呈現(xiàn)非化妝的面部圖像,同時(shí)保留面部特征。當(dāng)前最佳方法是將化妝風(fēng)格信息從人臉圖像中分離出來(lái),實(shí)現(xiàn)化妝效果的傳遞。然而,化妝風(fēng)格包含了幾種語(yǔ)義清晰的局部風(fēng)格表示,而這些表示通常糾纏在一起。這篇論文提出了一種新的統(tǒng)一對(duì)抗解糾纏網(wǎng)絡(luò),將人臉圖像進(jìn)一步分解為四個(gè)獨(dú)立分量(包括個(gè)人身份、唇妝風(fēng)格、眼妝風(fēng)格、臉妝風(fēng)格)。由于化妝風(fēng)格的進(jìn)一步分解,新方法不僅可以控制全局化妝風(fēng)格的程度,還可以靈活地調(diào)節(jié)局部化妝風(fēng)格的程度。同時(shí)這篇論文將化妝遷移與卸妝整合成一個(gè)統(tǒng)一的框架,從而得到了多個(gè)卸妝效果。大量的實(shí)驗(yàn)證明,相比于當(dāng)前最先進(jìn)的方法,新提出的方法可以產(chǎn)生更真實(shí)和準(zhǔn)確的化妝遷移結(jié)果。

今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等
今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等

  基于自動(dòng)生成的訓(xùn)練數(shù)據(jù)進(jìn)行大規(guī)模事件抽取學(xué)習(xí)

論文名稱(chēng):Scale Up Event Extraction Learning via Automatic Training Data Generation

作者:Ying Zeng; Yansong Feng; Rong Ma; Zheng Wang ; Rui Yan ; Chongde Shi ; Dongyan Zhao

發(fā)表時(shí)間:2017/11/11

論文鏈接:https://paper.yanxishe.com/review/14885?from=leiphonecolumn_paperreview0414

推薦原因

作者針對(duì)當(dāng)時(shí)事件抽取任務(wù)中專(zhuān)業(yè)性強(qiáng)、需要人工定義trigger word、標(biāo)注數(shù)據(jù)不足等問(wèn)題,提出了一種基于Distant supervise的一般性事件抽取數(shù)據(jù)集,并且設(shè)計(jì)了一種基于關(guān)鍵論元的事件抽取模型,利用樣本中的關(guān)鍵論元來(lái)推斷出事件類(lèi)型,進(jìn)一步補(bǔ)充其他論元生成完成的事件表信息。

本文提出的基于關(guān)鍵論元的模型,不需要人工定義trigger word,同時(shí)結(jié)合以維基百科為基礎(chǔ)生成的數(shù)據(jù)集,對(duì)人工標(biāo)注的樣本進(jìn)行訓(xùn)練,得到了更好的效果。

盡管現(xiàn)在有一些新的端到端的神經(jīng)網(wǎng)絡(luò)模型的出現(xiàn),并且也有了較之本文sentence-level更進(jìn)一步的document-level,corpus-level的事件抽取,但是本文依然很值得一讀。本文詳細(xì)的講述了基于Distant supervise數(shù)據(jù)集以及關(guān)鍵論元的設(shè)計(jì)思路和生成方法,有助于理解一個(gè)好的事件抽取模型應(yīng)該抽取什么樣的信息。

今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等

今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 人臉旋轉(zhuǎn);BiLSTM-CRF;神經(jīng)注意模型;Abigail等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

今日 Paper | MaskGAN;深度人臉識(shí)別;人體姿態(tài)估計(jì);妝容遷移等

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開(kāi)發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話(huà)
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)