0
本文作者: AI研習(xí)社 | 2020-04-02 10:58 |
用于超分辨率通用樣式遷移的協(xié)作蒸餾
通過(guò)學(xué)習(xí)去攻擊來(lái)進(jìn)行防御
用于人臉?lè)雌垓_的深度空間梯度和時(shí)間深度學(xué)習(xí)
用未標(biāo)記數(shù)據(jù)泛化人臉表示
3D-CariGAN:一種從人臉照片生成3D漫畫(huà)的端到端解決方案
論文名稱(chēng):Collaborative Distillation for Ultra-Resolution Universal Style Transfer
作者:Wang Huan /Li Yijun /Wang Yuehai /Hu Haoji /Yang Ming-Hsuan
發(fā)表時(shí)間:2020/3/18
論文鏈接:https://paper.yanxishe.com/review/14775?from=leiphonecolumn_paperreview0402
推薦原因
這篇論文被CVPR 2020接收,處理的是風(fēng)格遷移的問(wèn)題。
通用風(fēng)格遷移方法通常會(huì)利用來(lái)自深度卷積神經(jīng)網(wǎng)絡(luò)模型的豐富表示來(lái)對(duì)大量圖像進(jìn)行預(yù)訓(xùn)練,但在處理有限內(nèi)存下的超分辨率圖像時(shí)會(huì)受到大模型尺寸的嚴(yán)重限制。這篇論文提出了一種新的稱(chēng)為協(xié)作蒸餾的知識(shí)蒸餾方法,用于減少基于編碼器-解碼器結(jié)構(gòu)的神經(jīng)風(fēng)格遷移模型中的濾波器。為了克服協(xié)同蒸餾過(guò)程中特征尺寸不匹配的問(wèn)題,新方法引入了線性嵌入損失來(lái)驅(qū)動(dòng)學(xué)生網(wǎng)絡(luò)學(xué)習(xí)教師特征的線性嵌入。大量的實(shí)驗(yàn)表明新方法適用于不同的通用風(fēng)格遷移方法,而且在壓縮模式下首次在12GB的GPU上實(shí)現(xiàn)了超過(guò)4000萬(wàn)像素的超分辨率的通用風(fēng)格遷移。
論文名稱(chēng):Learning to Defense by Learning to Attack
作者:Jiang Haoming /Chen Zhehui /Shi Yuyang /Dai Bo /Zhao Tuo
發(fā)表時(shí)間:2018/11/3
論文鏈接:https://paper.yanxishe.com/review/14774?from=leiphonecolumn_paperreview0402
推薦原因
本文是對(duì)抗攻擊與防御領(lǐng)域里面一篇比較有意思的論文,在文中作者提出使用一種對(duì)抗訓(xùn)練的框架去訓(xùn)練一個(gè)魯棒的模型,從實(shí)驗(yàn)結(jié)果來(lái)看,文中提出的方法是很SOLID的,能夠扛住大部分的攻擊。同時(shí)文中采用的方法訓(xùn)練相對(duì)于其它對(duì)抗訓(xùn)練方法來(lái)說(shuō)是比較高效的。
論文名稱(chēng):Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing
作者:Wang Zezheng /Yu Zitong /Zhao Chenxu /Zhu Xiangyu /Qin Yunxiao /Zhou Qiusheng /Zhou Feng /Lei Zhen
發(fā)表時(shí)間:2020/3/18
論文鏈接:https://paper.yanxishe.com/review/14771?from=leiphonecolumn_paperreview0402
推薦原因
這篇論文被CVPR 2020接收,考慮的是人臉?lè)雌垓_的問(wèn)題。
以往的研究工作通過(guò)簡(jiǎn)單增加深度損失,而忽略了詳細(xì)的細(xì)粒度信息以及面部深度和運(yùn)動(dòng)模式之間的相互作用,從而將這個(gè)問(wèn)題表達(dá)為單幀多任務(wù)的問(wèn)題。這篇論文提出了一種從多幀中檢測(cè)攻擊的新方法,能通過(guò)殘差空間梯度塊(Residual Spatial Gradient Block, RSGB)捕獲判別細(xì)節(jié),并有效編碼來(lái)自時(shí)空傳播模塊Spatio-Temporal Propagation Module,STPM)的時(shí)空信息。此外,這篇論文提出了一種新的“對(duì)比深度損失以進(jìn)行更精確的深度監(jiān)督學(xué)習(xí)。為評(píng)估所提方法的有效性,這篇論文收集了雙模式反欺騙數(shù)據(jù)集(Double-modal Anti-spoofing Dataset,DMAD),該數(shù)據(jù)集為每個(gè)樣本提供了實(shí)際深度。實(shí)驗(yàn)表明,新提出的方法在OULU-NPU,SiW,CASIA-MFSD,Replay-Attack和新的DMAD等五個(gè)基準(zhǔn)數(shù)據(jù)集上均達(dá)到當(dāng)前最佳水平。
論文名稱(chēng):Generalizing Face Representation with Unlabeled Data
作者:Shi Yichun /Jain Anil K.
發(fā)表時(shí)間:2020/3/17
論文鏈接:https://paper.yanxishe.com/review/14770?from=leiphonecolumn_paperreview0402
推薦原因
越來(lái)越多的大規(guī)模標(biāo)注人臉數(shù)據(jù)集推動(dòng)了人臉識(shí)別問(wèn)題的研究,然而這些數(shù)據(jù)集中的人臉通常包含有限程度的類(lèi)型變化,很難推廣到更現(xiàn)實(shí)的場(chǎng)景中。收集帶有標(biāo)注的有較大變化的人臉圖像由于隱私和人力成本而不可行。相比之下,從不同的領(lǐng)域獲取大量未標(biāo)注的人臉更容易實(shí)現(xiàn)。因此這篇論文提出了一種利用無(wú)標(biāo)注人臉圖像學(xué)習(xí)可泛化人臉表示的方法,只在具有足夠多樣性的少量未標(biāo)注數(shù)據(jù)上進(jìn)行訓(xùn)練,新方法在識(shí)別性能上也能夠獲得可觀的提高。與目前最先進(jìn)的人臉識(shí)別方法相比,新方法進(jìn)一步提高了在IJB-B、IJB-C和IJB-S等具有挑戰(zhàn)性的基準(zhǔn)上的性能。
論文名稱(chēng):3D-CariGAN: An End-to-End Solution to 3D Caricature Generation from Face Photos
作者:Ye Zipeng /Yi Ran /Yu Minjing /Zhang Juyong /Lai Yu-Kun /Liu Yong-jin
發(fā)表時(shí)間:2020/3/15
論文鏈接:https://paper.yanxishe.com/review/14659?from=leiphonecolumn_paperreview0402
推薦原因
這篇論文提出了一個(gè)端到端的深度神經(jīng)網(wǎng)絡(luò)模型,以簡(jiǎn)單的面部照片作為輸入來(lái)生成高質(zhì)量的3D諷刺漫畫(huà)。這個(gè)問(wèn)題的挑戰(zhàn)在于臉部照片的源域(以2D正常臉為特征)與3D漫畫(huà)的目標(biāo)域(以3D夸張的臉部形狀和紋理為特征)明顯不同。這篇論文首先建立一個(gè)包含6,100個(gè)3D漫畫(huà)網(wǎng)格的大型數(shù)據(jù)集,并使用該數(shù)據(jù)集在3D漫畫(huà)形狀空間中建立PCA模型;然后在輸入的人臉照片中檢測(cè)出界標(biāo)并使用其來(lái)建立在2D漫畫(huà)和3D漫畫(huà)形狀之間的對(duì)應(yīng)關(guān)系。這篇論文還為用戶提供了一種易于使用的交互式控件來(lái)控制輸出。實(shí)驗(yàn)和用戶研究表明,新方法易于使用,可生成高質(zhì)量3D漫畫(huà)。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 高效骨干搜索;學(xué)習(xí)擴(kuò)充;最小人臉檢測(cè)器;?DEPARA等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。