0
本文作者: AI研習社 | 2020-04-02 10:58 |
用于超分辨率通用樣式遷移的協(xié)作蒸餾
通過學習去攻擊來進行防御
用于人臉反欺騙的深度空間梯度和時間深度學習
用未標記數(shù)據(jù)泛化人臉表示
3D-CariGAN:一種從人臉照片生成3D漫畫的端到端解決方案
論文名稱:Collaborative Distillation for Ultra-Resolution Universal Style Transfer
作者:Wang Huan /Li Yijun /Wang Yuehai /Hu Haoji /Yang Ming-Hsuan
發(fā)表時間:2020/3/18
論文鏈接:https://paper.yanxishe.com/review/14775?from=leiphonecolumn_paperreview0402
推薦原因
這篇論文被CVPR 2020接收,處理的是風格遷移的問題。
通用風格遷移方法通常會利用來自深度卷積神經(jīng)網(wǎng)絡模型的豐富表示來對大量圖像進行預訓練,但在處理有限內(nèi)存下的超分辨率圖像時會受到大模型尺寸的嚴重限制。這篇論文提出了一種新的稱為協(xié)作蒸餾的知識蒸餾方法,用于減少基于編碼器-解碼器結構的神經(jīng)風格遷移模型中的濾波器。為了克服協(xié)同蒸餾過程中特征尺寸不匹配的問題,新方法引入了線性嵌入損失來驅(qū)動學生網(wǎng)絡學習教師特征的線性嵌入。大量的實驗表明新方法適用于不同的通用風格遷移方法,而且在壓縮模式下首次在12GB的GPU上實現(xiàn)了超過4000萬像素的超分辨率的通用風格遷移。
論文名稱:Learning to Defense by Learning to Attack
作者:Jiang Haoming /Chen Zhehui /Shi Yuyang /Dai Bo /Zhao Tuo
發(fā)表時間:2018/11/3
論文鏈接:https://paper.yanxishe.com/review/14774?from=leiphonecolumn_paperreview0402
推薦原因
本文是對抗攻擊與防御領域里面一篇比較有意思的論文,在文中作者提出使用一種對抗訓練的框架去訓練一個魯棒的模型,從實驗結果來看,文中提出的方法是很SOLID的,能夠扛住大部分的攻擊。同時文中采用的方法訓練相對于其它對抗訓練方法來說是比較高效的。
論文名稱:Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing
作者:Wang Zezheng /Yu Zitong /Zhao Chenxu /Zhu Xiangyu /Qin Yunxiao /Zhou Qiusheng /Zhou Feng /Lei Zhen
發(fā)表時間:2020/3/18
論文鏈接:https://paper.yanxishe.com/review/14771?from=leiphonecolumn_paperreview0402
推薦原因
這篇論文被CVPR 2020接收,考慮的是人臉反欺騙的問題。
以往的研究工作通過簡單增加深度損失,而忽略了詳細的細粒度信息以及面部深度和運動模式之間的相互作用,從而將這個問題表達為單幀多任務的問題。這篇論文提出了一種從多幀中檢測攻擊的新方法,能通過殘差空間梯度塊(Residual Spatial Gradient Block, RSGB)捕獲判別細節(jié),并有效編碼來自時空傳播模塊Spatio-Temporal Propagation Module,STPM)的時空信息。此外,這篇論文提出了一種新的“對比深度損失以進行更精確的深度監(jiān)督學習。為評估所提方法的有效性,這篇論文收集了雙模式反欺騙數(shù)據(jù)集(Double-modal Anti-spoofing Dataset,DMAD),該數(shù)據(jù)集為每個樣本提供了實際深度。實驗表明,新提出的方法在OULU-NPU,SiW,CASIA-MFSD,Replay-Attack和新的DMAD等五個基準數(shù)據(jù)集上均達到當前最佳水平。
論文名稱:Generalizing Face Representation with Unlabeled Data
作者:Shi Yichun /Jain Anil K.
發(fā)表時間:2020/3/17
論文鏈接:https://paper.yanxishe.com/review/14770?from=leiphonecolumn_paperreview0402
推薦原因
越來越多的大規(guī)模標注人臉數(shù)據(jù)集推動了人臉識別問題的研究,然而這些數(shù)據(jù)集中的人臉通常包含有限程度的類型變化,很難推廣到更現(xiàn)實的場景中。收集帶有標注的有較大變化的人臉圖像由于隱私和人力成本而不可行。相比之下,從不同的領域獲取大量未標注的人臉更容易實現(xiàn)。因此這篇論文提出了一種利用無標注人臉圖像學習可泛化人臉表示的方法,只在具有足夠多樣性的少量未標注數(shù)據(jù)上進行訓練,新方法在識別性能上也能夠獲得可觀的提高。與目前最先進的人臉識別方法相比,新方法進一步提高了在IJB-B、IJB-C和IJB-S等具有挑戰(zhàn)性的基準上的性能。
論文名稱:3D-CariGAN: An End-to-End Solution to 3D Caricature Generation from Face Photos
作者:Ye Zipeng /Yi Ran /Yu Minjing /Zhang Juyong /Lai Yu-Kun /Liu Yong-jin
發(fā)表時間:2020/3/15
論文鏈接:https://paper.yanxishe.com/review/14659?from=leiphonecolumn_paperreview0402
推薦原因
這篇論文提出了一個端到端的深度神經(jīng)網(wǎng)絡模型,以簡單的面部照片作為輸入來生成高質(zhì)量的3D諷刺漫畫。這個問題的挑戰(zhàn)在于臉部照片的源域(以2D正常臉為特征)與3D漫畫的目標域(以3D夸張的臉部形狀和紋理為特征)明顯不同。這篇論文首先建立一個包含6,100個3D漫畫網(wǎng)格的大型數(shù)據(jù)集,并使用該數(shù)據(jù)集在3D漫畫形狀空間中建立PCA模型;然后在輸入的人臉照片中檢測出界標并使用其來建立在2D漫畫和3D漫畫形狀之間的對應關系。這篇論文還為用戶提供了一種易于使用的交互式控件來控制輸出。實驗和用戶研究表明,新方法易于使用,可生成高質(zhì)量3D漫畫。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關文章:
今日 Paper | 高效骨干搜索;學習擴充;最小人臉檢測器;?DEPARA等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。