0
本文作者: AI研習(xí)社 | 2020-04-14 10:20 |
CurricularFace: 深度人臉識別的適應(yīng)性課程學(xué)習(xí)損失
MaskGAN:多樣和交互的面部圖像操作
結(jié)合檢測和跟蹤的視頻人體姿態(tài)估計
通過解糾纏表示的局部面部妝容遷移
基于自動生成的訓(xùn)練數(shù)據(jù)進行大規(guī)模事件抽取學(xué)習(xí)
論文名稱:CurricularFace: Adaptive Curriculum Learning Loss for Deep Face Recognition
作者:Huang Yuge /Wang Yuhan /Tai Ying /Liu Xiaoming /Shen Pengcheng /Li Shaoxin /Li Jilin /Huang Feiyue
發(fā)表時間:2020/4/1
論文鏈接:https://paper.yanxishe.com/review/15951?from=leiphonecolumn_paperreview0414
推薦原因
這是騰訊優(yōu)圖入選CVPR 2020的論文,考慮的是人臉識別的問題。
在人臉識別中,設(shè)計基于邊際的損失函數(shù)可以增加不同類別之間的特征邊界,以增強可分辨性。這篇論文提出了一種新的自適應(yīng)課程學(xué)習(xí)損失(Adaptive Curriculum Learning Loss,CurricularFace)策略,將課程學(xué)習(xí)的思想嵌入到損失函數(shù)中,從而實現(xiàn)一種用于深層人臉識別的新訓(xùn)練策略,該策略主要針對早期訓(xùn)練階段中的簡單樣本和困難樣本。CurricularFace在不同的訓(xùn)練階段自適應(yīng)地調(diào)整了簡單樣本和硬樣本的相對權(quán)重。在每個階段,根據(jù)不同難度將不同樣本分配給不同重要性,從而在實驗中優(yōu)于其他方法。
論文名稱:MaskGAN: Towards Diverse and Interactive Facial Image Manipulation
作者:Lee Cheng-Han /Liu Ziwei /Wu Lingyun /Luo Ping
發(fā)表時間:2019/7/27
論文鏈接:https://paper.yanxishe.com/review/15950?from=leiphonecolumn_paperreview0414
推薦原因
這篇論文被CVPR 2020接收,處理的是面部圖像操作。
這篇論文提出了一個支持多樣化和交互式面部操作的新的框架,稱為MaskGAN。MaskGAN主要由兩部分組成:密集映射網(wǎng)絡(luò)(DMN)和編輯行為模擬訓(xùn)練(EBST),其中DMN學(xué)習(xí)自由形式的用戶修改的MASK和目標圖像之間的樣式映射,從而支持不同的生成結(jié)果。EBST可以對源MASK上的用戶編輯行為建模,使整個框架對各種操作輸入更加健壯。這篇論文還構(gòu)建了一個大規(guī)模的高分辨率人臉數(shù)據(jù)集,并使用了名為CelebAMask-HQ的細粒度MASK標注規(guī)則。評估結(jié)果顯示MaskGAN在屬性遷移和樣式復(fù)制這兩個任務(wù)上優(yōu)于其他方法。
論文名稱:Combining detection and tracking for human pose estimation in videos
作者:Wang Manchen /Tighe Joseph /Modolo Davide
發(fā)表時間:2020/3/30
論文鏈接:https://paper.yanxishe.com/review/15949?from=leiphonecolumn_paperreview0414
推薦原因
這篇論文被CVPR 2020接收,要解決的是人體姿態(tài)估計的問題。
與現(xiàn)有方法相比,這篇論文提出的新方法通過在時間上向前和向后傳播已知人員的位置并在這些區(qū)域中搜索姿勢,來預(yù)測未定位的人員實例。新方法包括三個部分:1)一個剪輯跟蹤網(wǎng)絡(luò),對小型視頻剪輯執(zhí)行人體關(guān)節(jié)檢測和跟蹤;2)視頻跟蹤管道,將剪輯跟蹤網(wǎng)絡(luò)產(chǎn)生的固定長度的小軌道合并到任意長度軌道中;3)時空融合過程,根據(jù)空間和時間平滑項精煉關(guān)節(jié)位置。得益于剪輯跟蹤網(wǎng)絡(luò)和合并程序的精確性,新方法可以產(chǎn)生非常準確的聯(lián)合預(yù)測,且可解決棘手場景(如糾纏不清的人)的常見錯誤。
論文名稱:Local Facial Makeup Transfer via Disentangled Representation
作者:Sun Zhaoyang /Liu Wenxuan /Liu Feng /Liu Ryan Wen /Xiong Shengwu
發(fā)表時間:2020/3/27
論文鏈接:https://paper.yanxishe.com/review/15948?from=leiphonecolumn_paperreview0414
推薦原因
這篇論文考慮的是面部妝容遷移的問題。
面部妝容遷移的目的是在任意給定的化妝圖像中呈現(xiàn)非化妝的面部圖像,同時保留面部特征。當前最佳方法是將化妝風格信息從人臉圖像中分離出來,實現(xiàn)化妝效果的傳遞。然而,化妝風格包含了幾種語義清晰的局部風格表示,而這些表示通常糾纏在一起。這篇論文提出了一種新的統(tǒng)一對抗解糾纏網(wǎng)絡(luò),將人臉圖像進一步分解為四個獨立分量(包括個人身份、唇妝風格、眼妝風格、臉妝風格)。由于化妝風格的進一步分解,新方法不僅可以控制全局化妝風格的程度,還可以靈活地調(diào)節(jié)局部化妝風格的程度。同時這篇論文將化妝遷移與卸妝整合成一個統(tǒng)一的框架,從而得到了多個卸妝效果。大量的實驗證明,相比于當前最先進的方法,新提出的方法可以產(chǎn)生更真實和準確的化妝遷移結(jié)果。
論文名稱:Scale Up Event Extraction Learning via Automatic Training Data Generation
作者:Ying Zeng; Yansong Feng; Rong Ma; Zheng Wang ; Rui Yan ; Chongde Shi ; Dongyan Zhao
發(fā)表時間:2017/11/11
論文鏈接:https://paper.yanxishe.com/review/14885?from=leiphonecolumn_paperreview0414
推薦原因
作者針對當時事件抽取任務(wù)中專業(yè)性強、需要人工定義trigger word、標注數(shù)據(jù)不足等問題,提出了一種基于Distant supervise的一般性事件抽取數(shù)據(jù)集,并且設(shè)計了一種基于關(guān)鍵論元的事件抽取模型,利用樣本中的關(guān)鍵論元來推斷出事件類型,進一步補充其他論元生成完成的事件表信息。
本文提出的基于關(guān)鍵論元的模型,不需要人工定義trigger word,同時結(jié)合以維基百科為基礎(chǔ)生成的數(shù)據(jù)集,對人工標注的樣本進行訓(xùn)練,得到了更好的效果。
盡管現(xiàn)在有一些新的端到端的神經(jīng)網(wǎng)絡(luò)模型的出現(xiàn),并且也有了較之本文sentence-level更進一步的document-level,corpus-level的事件抽取,但是本文依然很值得一讀。本文詳細的講述了基于Distant supervise數(shù)據(jù)集以及關(guān)鍵論元的設(shè)計思路和生成方法,有助于理解一個好的事件抽取模型應(yīng)該抽取什么樣的信息。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 人臉旋轉(zhuǎn);BiLSTM-CRF;神經(jīng)注意模型;Abigail等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。