丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給AI研習社
發(fā)送

0

今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等

本文作者: AI研習社 2020-04-02 10:58
導語:為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊。

今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等

  目錄

用于超分辨率通用樣式遷移的協(xié)作蒸餾

通過學習去攻擊來進行防御

用于人臉反欺騙的深度空間梯度和時間深度學習

用未標記數(shù)據(jù)泛化人臉表示

3D-CariGAN:一種從人臉照片生成3D漫畫的端到端解決方案

  用于超分辨率通用樣式遷移的協(xié)作蒸餾

論文名稱:Collaborative Distillation for Ultra-Resolution Universal Style Transfer

作者:Wang Huan /Li Yijun /Wang Yuehai /Hu Haoji /Yang Ming-Hsuan

發(fā)表時間:2020/3/18

論文鏈接:https://paper.yanxishe.com/review/14775?from=leiphonecolumn_paperreview0402

推薦原因

這篇論文被CVPR 2020接收,處理的是風格遷移的問題。

通用風格遷移方法通常會利用來自深度卷積神經(jīng)網(wǎng)絡模型的豐富表示來對大量圖像進行預訓練,但在處理有限內(nèi)存下的超分辨率圖像時會受到大模型尺寸的嚴重限制。這篇論文提出了一種新的稱為協(xié)作蒸餾的知識蒸餾方法,用于減少基于編碼器-解碼器結構的神經(jīng)風格遷移模型中的濾波器。為了克服協(xié)同蒸餾過程中特征尺寸不匹配的問題,新方法引入了線性嵌入損失來驅(qū)動學生網(wǎng)絡學習教師特征的線性嵌入。大量的實驗表明新方法適用于不同的通用風格遷移方法,而且在壓縮模式下首次在12GB的GPU上實現(xiàn)了超過4000萬像素的超分辨率的通用風格遷移。

今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等
今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等

  通過學習去攻擊來進行防御

論文名稱:Learning to Defense by Learning to Attack

作者:Jiang Haoming /Chen Zhehui /Shi Yuyang /Dai Bo /Zhao Tuo

發(fā)表時間:2018/11/3

論文鏈接:https://paper.yanxishe.com/review/14774?from=leiphonecolumn_paperreview0402

推薦原因

本文是對抗攻擊與防御領域里面一篇比較有意思的論文,在文中作者提出使用一種對抗訓練的框架去訓練一個魯棒的模型,從實驗結果來看,文中提出的方法是很SOLID的,能夠扛住大部分的攻擊。同時文中采用的方法訓練相對于其它對抗訓練方法來說是比較高效的。

今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等
今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等

  用于人臉反欺騙的深度空間梯度和時間深度學習

論文名稱:Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing

作者:Wang Zezheng /Yu Zitong /Zhao Chenxu /Zhu Xiangyu /Qin Yunxiao /Zhou Qiusheng /Zhou Feng /Lei Zhen

發(fā)表時間:2020/3/18

論文鏈接:https://paper.yanxishe.com/review/14771?from=leiphonecolumn_paperreview0402

推薦原因

這篇論文被CVPR 2020接收,考慮的是人臉反欺騙的問題。

以往的研究工作通過簡單增加深度損失,而忽略了詳細的細粒度信息以及面部深度和運動模式之間的相互作用,從而將這個問題表達為單幀多任務的問題。這篇論文提出了一種從多幀中檢測攻擊的新方法,能通過殘差空間梯度塊(Residual Spatial Gradient Block, RSGB)捕獲判別細節(jié),并有效編碼來自時空傳播模塊Spatio-Temporal Propagation Module,STPM)的時空信息。此外,這篇論文提出了一種新的“對比深度損失以進行更精確的深度監(jiān)督學習。為評估所提方法的有效性,這篇論文收集了雙模式反欺騙數(shù)據(jù)集(Double-modal Anti-spoofing Dataset,DMAD),該數(shù)據(jù)集為每個樣本提供了實際深度。實驗表明,新提出的方法在OULU-NPU,SiW,CASIA-MFSD,Replay-Attack和新的DMAD等五個基準數(shù)據(jù)集上均達到當前最佳水平。

今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等
今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等

  用未標記數(shù)據(jù)泛化人臉表示

論文名稱:Generalizing Face Representation with Unlabeled Data

作者:Shi Yichun /Jain Anil K.

發(fā)表時間:2020/3/17

論文鏈接:https://paper.yanxishe.com/review/14770?from=leiphonecolumn_paperreview0402

推薦原因

越來越多的大規(guī)模標注人臉數(shù)據(jù)集推動了人臉識別問題的研究,然而這些數(shù)據(jù)集中的人臉通常包含有限程度的類型變化,很難推廣到更現(xiàn)實的場景中。收集帶有標注的有較大變化的人臉圖像由于隱私和人力成本而不可行。相比之下,從不同的領域獲取大量未標注的人臉更容易實現(xiàn)。因此這篇論文提出了一種利用無標注人臉圖像學習可泛化人臉表示的方法,只在具有足夠多樣性的少量未標注數(shù)據(jù)上進行訓練,新方法在識別性能上也能夠獲得可觀的提高。與目前最先進的人臉識別方法相比,新方法進一步提高了在IJB-B、IJB-C和IJB-S等具有挑戰(zhàn)性的基準上的性能。

今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等
今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等

  3D-CariGAN:一種從人臉照片生成3D漫畫的端到端解決方案

論文名稱:3D-CariGAN: An End-to-End Solution to 3D Caricature Generation from Face Photos

作者:Ye Zipeng /Yi Ran /Yu Minjing /Zhang Juyong /Lai Yu-Kun /Liu Yong-jin

發(fā)表時間:2020/3/15

論文鏈接:https://paper.yanxishe.com/review/14659?from=leiphonecolumn_paperreview0402

推薦原因

這篇論文提出了一個端到端的深度神經(jīng)網(wǎng)絡模型,以簡單的面部照片作為輸入來生成高質(zhì)量的3D諷刺漫畫。這個問題的挑戰(zhàn)在于臉部照片的源域(以2D正常臉為特征)與3D漫畫的目標域(以3D夸張的臉部形狀和紋理為特征)明顯不同。這篇論文首先建立一個包含6,100個3D漫畫網(wǎng)格的大型數(shù)據(jù)集,并使用該數(shù)據(jù)集在3D漫畫形狀空間中建立PCA模型;然后在輸入的人臉照片中檢測出界標并使用其來建立在2D漫畫和3D漫畫形狀之間的對應關系。這篇論文還為用戶提供了一種易于使用的交互式控件來控制輸出。實驗和用戶研究表明,新方法易于使用,可生成高質(zhì)量3D漫畫。

今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等
今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等

今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關文章:

今日 Paper | 高效骨干搜索;學習擴充;最小人臉檢測器;?DEPARA等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。

今日 Paper | 協(xié)作蒸餾;人臉反欺騙;人臉表示;3D-CariGAN等

分享:
相關文章

編輯

聚焦數(shù)據(jù)科學,連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說