2
本文作者: Deeperblue | 2016-08-17 10:58 |
雷鋒網(wǎng)按:本文來(lái)自DeeperBlue。
雷鋒網(wǎng)注:截圖來(lái)自深黑官網(wǎng)
2016 年 8 月 16 日凌晨 00:01,湖南歐斐網(wǎng)絡(luò)科技有限公司開發(fā)的 “深黑” APP 在 Android 平臺(tái)上線公測(cè)版。“深黑” 的自我簡(jiǎn)介如下:
“為藝術(shù)愛好者打造的神奇手機(jī) APP,讓你的照片瞬間變換成藝術(shù)風(fēng)格作品。不同于傳統(tǒng)濾鏡,深黑基于人工智能,每個(gè)風(fēng)格都是由真正的藝術(shù)家訓(xùn)練、創(chuàng)作而成。只需輕輕點(diǎn)擊,就能得到不同藝術(shù)風(fēng)格,讓人驚嘆不已。”
“基于人工智能”、“不同于傳統(tǒng)濾鏡”這些用詞,加上看作品畫風(fēng),讓人聯(lián)想起 2016 年大火、僅次于 Pokeman Go 的 APP——Prisma。
深黑的作品展示。圖片來(lái)源:oandf.cn
Prisma 體現(xiàn)了當(dāng)今人工智能時(shí)代,人們想要用計(jì)算機(jī)代替?zhèn)魇喇嫾业囊靶?。印象派、野獸派、浮世繪、波普、解構(gòu)主義,曾經(jīng)藝術(shù)風(fēng)格都是畫家腦中不可捉摸的概念。而到了人工智能時(shí)代,所有藝術(shù)風(fēng)格都被證實(shí)是可以進(jìn)行 “量化” 的,并且通過(guò)機(jī)器學(xué)習(xí),可以源源不斷地產(chǎn)生新作品。
在量化(數(shù)學(xué))與風(fēng)格(藝術(shù))之間,吊詭的是時(shí)間。最勤奮的油畫畫家達(dá)芬奇,畫一幅普通作品也需要花費(fèi)一周左右;而到了人工智能時(shí)代,這個(gè)時(shí)間是:不到 20 秒。
趁著中國(guó)版 Prisma 的發(fā)布,我們今天復(fù)盤一下深度學(xué)習(xí)的圖像應(yīng)用。
似乎歐洲國(guó)家對(duì)藝術(shù)這件事比其他地區(qū)更有群眾基礎(chǔ)。早在 2016 年 Prisma 大火的一年之前,就有三個(gè)德國(guó)研究員想把計(jì)算機(jī)調(diào)教成梵高。
這三個(gè)研究員名字分別叫做萊昂 · 蓋提斯(Leon Gatys),亞歷山大 · ??耍ˋlexander Ecker)和馬蒂亞斯 · 貝特格(Matthias Bethge),來(lái)自德國(guó)圖賓根大學(xué)(University of Tübingen)的 Bethge 實(shí)驗(yàn)室。他們研發(fā)了一種算法,模擬人類視覺的處理方式。具體是通過(guò)訓(xùn)練多層卷積神經(jīng)網(wǎng)絡(luò)(CNN),讓計(jì)算機(jī)識(shí)別,并學(xué)會(huì)梵高的 “風(fēng)格”、然后將任何一張普通的照片變成梵高的《星空》。
Deep Art 首頁(yè)貼出得到一張 “梵高風(fēng)格” 圖片的步驟。第一步,吸收用戶拍攝的照片。第二步,讓計(jì)算機(jī)學(xué)會(huì)星空?qǐng)D的風(fēng)格。第三步,計(jì)算機(jī)輸出自己做的“新畫”。圖片來(lái)源:https://deepart.io/#
在人類的視覺系統(tǒng)中,從眼睛看到一件實(shí)體,到在腦中形成圖像的概念,中間經(jīng)歷了無(wú)數(shù)層神經(jīng)元的傳遞。底層的神經(jīng)元獲取到的信息是具體的,越到高層越抽象。
這三個(gè)德國(guó)人發(fā)現(xiàn),如果用計(jì)算機(jī)模擬這個(gè)網(wǎng)絡(luò),將每一層的結(jié)構(gòu)分析出來(lái),能看到:在采樣過(guò)程中,底層網(wǎng)絡(luò)對(duì)于圖像的細(xì)節(jié)表達(dá)得特別清楚,越到高層像素保留得越少,輪廓信息越多。
所謂深度學(xué)習(xí)(Deep Learning)中的 “深度(Deep)” 即意為層數(shù)。神經(jīng)網(wǎng)絡(luò)的每一層都會(huì)對(duì)圖片特征進(jìn)行提取,而 “藝術(shù)風(fēng)格” 則是各層提取結(jié)果的疊加。
這三個(gè)德國(guó)人把他們的上述發(fā)現(xiàn)寫成了兩篇論文:《藝術(shù)風(fēng)格的神經(jīng)算法(A Neural Algorithm of Artistic Style)》,和《利用神經(jīng)卷積網(wǎng)絡(luò)進(jìn)行紋理合成(Texture Synthesis Using Convolutional Neural Networks)》,在學(xué)術(shù)圈引起極大的討論。
“起初,我們只是想創(chuàng)造一個(gè)關(guān)于神經(jīng)科學(xué)的新鮮事物。而藝術(shù)人工神經(jīng)網(wǎng)絡(luò)的狀態(tài)與人類的視覺系統(tǒng)有頗多相似之處。所以后來(lái)我們覺得,可以對(duì)圖片做更有趣的處理?!?nbsp;萊昂 · 蓋提斯對(duì)深藍(lán) Deeper Blue 說(shuō)。
論文發(fā)表后不久,他們便建立了一家名為 Deep Art 的初創(chuàng)公司,著手實(shí)現(xiàn)他們?cè)谡撐睦锾岢龅南敕ā?/p>
(Deep Art 網(wǎng)站,圖像制作界面。Deep Art 提供多種藝術(shù)風(fēng)格選項(xiàng),圖像制作完成后需發(fā)至用戶郵箱。圖片來(lái)源: deepart.io)
用戶在 Deep Art 網(wǎng)頁(yè)上上傳自己的照片,然后通過(guò) Deep Art 提供的 “機(jī)器人梵高” 進(jìn)行新畫創(chuàng)作。整個(gè)過(guò)程需要等待幾個(gè)小時(shí)讓計(jì)算機(jī)進(jìn)行數(shù)據(jù)運(yùn)算和處理。用戶可以選擇清晰程度不等的作品。用戶可以花上 19 歐買一張適合明信片用的作品,或者多掏 100 歐,買一張大尺寸油畫級(jí)別的。
萊昂 · 蓋提斯們做的事情并不是美圖秀秀的濾鏡。在 Deep Art 出來(lái)之前,已經(jīng)有很多致敬莫奈與梵高的濾鏡類應(yīng)用,但核心原理和 Deep Art 完全不同,比如 2010 年上架的 Mobile Monet, Van Gogh Camera 。
Camera Monet 與 Van Gogh Camera的界面展示。這兩款濾鏡軟件,都能講用戶照片渲染成某種藝術(shù)效果。但核心原理和Deep Art使用的卷積神經(jīng)網(wǎng)絡(luò)完全不同。(深藍(lán)制圖)。
如果我們將同一張圖片放入 Van Gogh Camera 中,Van Gogh Camera 會(huì)按照程序員事先內(nèi)置的 “公式”,計(jì)算圖中每一個(gè)像素點(diǎn),最后輸出一張梵高風(fēng)格的照片。但只要我們想將圖片風(fēng)格從梵高換到畢加索,程序員就必須重新寫一套代碼,更改計(jì)算 “公式”。
而在 Deep Art 中,編寫 “公式” 的程序員是卷積神經(jīng)網(wǎng)絡(luò)(CNN),只需輸入梵高的《星空》,卷積神經(jīng)網(wǎng)絡(luò)便能自動(dòng)提取這幅畫作的風(fēng)格特征,并量化成具體公式。也就是說(shuō),藝術(shù)史上所有的作品都能作為濾鏡來(lái)源。
“卷積神經(jīng)網(wǎng)絡(luò)可以被看做是一個(gè)機(jī)器藝術(shù)家。” 萊昂 · 蓋提斯說(shuō)。
2016 年年初,俄羅斯計(jì)算機(jī)工程師阿列克謝 · 莫伊謝延科夫(Alexei Moiseyenkov)讀到了這三個(gè)德國(guó)人的論文。他敏銳地嗅到,德國(guó)人做的遠(yuǎn)遠(yuǎn)不夠,這項(xiàng)技術(shù)在消費(fèi)級(jí)市場(chǎng)仍是一片空白。
隨后他組建了一個(gè)四人團(tuán)隊(duì),研發(fā)了 Prisma,力求做到:免費(fèi),更快,更簡(jiǎn)單?!?nbsp;兩個(gè)月研究數(shù)學(xué)模型,一個(gè)半月開發(fā)?!?nbsp;莫伊謝延科夫說(shuō)。
“ Prisma 第一次將這項(xiàng)技術(shù)成功商業(yè)化。他們充分考慮了智能手機(jī)覆蓋率的飛速增長(zhǎng),并且細(xì)致研究了用戶行為。Prisma 接入的是以億數(shù)量級(jí)的市場(chǎng)。” 《莫斯科時(shí)報(bào)》這樣報(bào)道他們:“ 誰(shuí)抓住了用戶需求,誰(shuí)就能成為億萬(wàn)富翁。”
Prisma 的橫空出世,算是俄羅斯互聯(lián)網(wǎng)圈子少有的高光時(shí)刻。2016年6月中旬,這款應(yīng)用剛在 iOS 上發(fā)布,15 天內(nèi)下載量 750 萬(wàn),火遍四十個(gè)國(guó)家。
巨大的成功甚至讓開發(fā)團(tuán)隊(duì)措手不及,不得不以每天擴(kuò)大一倍的速度提升服務(wù)器處理能力。
“看起來(lái),整個(gè)俄羅斯都被我們征服了?!?/strong> 莫伊謝延科夫隨后在 Facebbok 上寫下了這句話。8 月 2 日,Prisma 全球范圍內(nèi)已獲得超過(guò) 5000 萬(wàn)用戶。
坐擁 2300 萬(wàn)粉絲的俄國(guó)總統(tǒng)梅德韋杰夫也成為 Prisma 的用戶。他在 Instgram 上曬出一張 Prisma 作品,迅速獲得 8.7 萬(wàn)個(gè)贊。
Prisma 比 Deep Art 先進(jìn)的地方在于,它大大縮短了圖像處理的時(shí)間。在用戶還沒有達(dá)到十幾億數(shù)量級(jí)的時(shí)候,每張照片在 Prisma 系統(tǒng)內(nèi)的處理時(shí)間只有 20 秒。其次,Prisma 是一款免費(fèi)手機(jī)應(yīng)用,相比網(wǎng)頁(yè)版的 Deep Art, 無(wú)疑具有更多的用戶基數(shù)。
20秒,全球的某個(gè)角落,一個(gè)用戶上傳照片,他的照片被傳送到位于莫斯科的服務(wù)器上,Prisma利用人工智能和神經(jīng)網(wǎng)絡(luò)進(jìn)行處理,然后經(jīng) “風(fēng)格化” 后的圖片再返回用戶手機(jī)。
這個(gè)速度在業(yè)內(nèi)是頂級(jí)的。為什么這么快?
“一定是下了血本,”一位來(lái)自國(guó)內(nèi)著名人臉識(shí)別技術(shù)公司的工程師告訴深藍(lán) Deeper Blue,“在我當(dāng)時(shí)搭建的框架之下,用普通筆記本的計(jì)算能力,做一張這樣的圖有可能需要幾個(gè)小時(shí)?!?/p>
德國(guó)人萊昂 · 蓋提斯則對(duì)深藍(lán) DeeperBlue 猜測(cè)道:“我認(rèn)為他們訓(xùn)練了一個(gè)前饋神經(jīng)網(wǎng)絡(luò)來(lái)制造圖片?!?/strong>
“Prisma 沒有完全依賴機(jī)器學(xué)習(xí),而是對(duì)一些關(guān)鍵的內(nèi)容加以控制?!币晃粯I(yè)內(nèi)人士則對(duì)深藍(lán) Deeper Blue 說(shuō),“例如,在海量的用戶上傳內(nèi)容中,一定有相當(dāng)一部分比例是人像,而相對(duì)于原始算法,Prisma 對(duì)面部細(xì)節(jié)的處理似乎更勝一籌,也許他們專門加入了對(duì)面部的識(shí)別和控制。”
據(jù)莫伊謝延科夫自己介紹,Prisma 一共用了三組神經(jīng)網(wǎng)絡(luò),它們分工明確:兩組神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)的風(fēng)格提取和照片制作,還有一組神經(jīng)網(wǎng)絡(luò)作為后臺(tái),為整個(gè)計(jì)算過(guò)程加速。
相比之下,Deep Art 更像是精工細(xì)作的手藝人。萊昂 · 蓋提斯認(rèn)為自家的原始算法雖然慢一些,但在細(xì)節(jié)表現(xiàn)力上更勝一籌—— “是真正的藝術(shù)品?!?Deepart.io 提供的收費(fèi)高分辨率大圖,堪比一副掛在博物館墻上的畫。
Deep Art 主頁(yè)上,關(guān)于作品定價(jià)的界面展示。圖片來(lái)源:deepart.io
“他們的風(fēng)格化工作比最初的工作要弱了些,我認(rèn)為他們是做了一些較低級(jí)別的圖片處理,以掩蓋風(fēng)格化的不足,例如,加強(qiáng)了邊緣的表現(xiàn)?!?nbsp;萊昂 · 蓋提斯對(duì)深藍(lán) Deeper Blue 說(shuō),他認(rèn)為 Prisma 犧牲了藝術(shù)質(zhì)量而求速度。
大部分人之前推測(cè) Prisma 會(huì)推出更多濾鏡來(lái)變現(xiàn),但在 Prisma 主創(chuàng)拜訪過(guò) Facebook 之后,爆出他們的下一步的計(jì)劃是做視頻。2016 年 7 月20 日,Prisma 創(chuàng)始人莫伊謝延科夫在 Facebook 官方賬號(hào)上上傳了一段 29 秒的音樂視頻。這段視頻的每一幀,都經(jīng)過(guò)藝術(shù)風(fēng)格渲染。
一段 Prisma 藝術(shù)效果視頻。Prisma 已經(jīng)在官方 Facebook 上發(fā)布了多個(gè)音樂視頻。
然而,并不只有 Prisma 一家在轉(zhuǎn)視頻這個(gè)方向。
僅僅隔了 9 天,Prisma 的天使投資方、俄羅斯互聯(lián)網(wǎng)巨頭 Mail.Ru 公司副總裁安娜 · 阿塔莫諾娃(Anna Artamonova)在 Facebook 上宣布了 Prisma 直接競(jìng)品 Artisto 的發(fā)布。這是一款結(jié)合神經(jīng)網(wǎng)絡(luò)和人工智能技術(shù)的視頻處理軟件,可以為視頻添加動(dòng)態(tài)的藝術(shù)特效。雖然視頻長(zhǎng)度不能超過(guò) 10 秒,但名畫風(fēng)格的圖像 “動(dòng)起來(lái)” 確實(shí)賞心悅目。阿塔莫諾娃稱這個(gè)視頻軟件只花了 8 天時(shí)間研發(fā)。
副總裁 阿塔莫諾娃接連在 Facebook 上發(fā)布 Artisto 制作的視頻。 圖片來(lái)源:facebook.com
在 Prisma 安卓版上線的第二天,俄羅斯最大社交網(wǎng)站 VKontakte 也推出了一款和 Prisma 類似的產(chǎn)品:Vinci,兩者的功能和外觀都非常相似。Vinci 不僅將圖片加工時(shí)間縮短到了 2 秒鐘,還快速開放了 iOS 與 安卓市場(chǎng),并且覆蓋到 Prisma 未能涉足的 Windows Phone 領(lǐng)域,成為 Windows Phone上第一個(gè)運(yùn)用神經(jīng)網(wǎng)絡(luò)的軟件。值得一提的是,社交網(wǎng)站 VKontakte 也是 Mail.Ru 的旗下產(chǎn)品。
截至到 2016 年 8 月 2 日,在俄羅斯 APP Store 免費(fèi)榜上,Artisto 高居榜首,Vinci 位居第二,而 Prisma 則落到了第五的位置。
圖片制作軟件 Vinci 的界面展示。圖片來(lái)源:mspoweruser.com
不僅僅是俄國(guó)人在想視頻這件事,Deep Art 那三個(gè)德國(guó)人也瞄準(zhǔn)了視頻市場(chǎng)。前不久,Deep Art 官方網(wǎng)站放出了一段 demo,開始制作付費(fèi)短視頻。一段 720p的視頻(最長(zhǎng)五分鐘)售價(jià) 249 歐元。
Deep Art 的產(chǎn)品高價(jià)位和慢速度,定位的是中高級(jí)市場(chǎng)。而在大眾消費(fèi)端,免費(fèi)產(chǎn)品 Prisma,Vinci,Artisto 不論誰(shuí)贏,都是俄羅斯互聯(lián)網(wǎng)巨頭公司 Mail.Ru 的勝利。與其說(shuō)幾款產(chǎn)品是在技術(shù)上較量,不如說(shuō)這是互聯(lián)網(wǎng)資本大鱷的強(qiáng)勢(shì)布局。
然而,事實(shí)上深度學(xué)習(xí)在視頻上還處于起步階段,主要面臨如下三個(gè)挑戰(zhàn):
第一,視頻的數(shù)據(jù)處理量比圖片更大,對(duì)計(jì)算能力的要求指數(shù)級(jí)增加;
第二,如何保持幀圖像在時(shí)間軸上的信息一致性,而不是單獨(dú)處理每一幀圖像,也是難題;
第三,視頻中的物體時(shí)刻在運(yùn)動(dòng),如何追蹤其在空間中的動(dòng)態(tài)變化,研究員們還沒找到好的方法。
除了我們盤點(diǎn)過(guò)的這些 “濾鏡類應(yīng)用”,深度學(xué)習(xí)在圖像處理上應(yīng)用還有很多??偟恼f(shuō)來(lái),深度學(xué)習(xí)圖像應(yīng)用按照過(guò)程可以分為兩部分:輸入與輸出。
輸入可以視作是 “機(jī)器視覺”,即機(jī)器內(nèi)部建立起對(duì)圖像的理解與認(rèn)知——比如去判斷圖片中人像是不是本人,對(duì)圖中物品進(jìn)行分類等;
輸出是進(jìn)一步做出判斷、決策,并觸發(fā)行動(dòng),比如自動(dòng)駕駛中通過(guò)分析攝像頭采集到的道路信息,對(duì)控制系統(tǒng)下達(dá)加速、停車等指令。
在圖像識(shí)別的高準(zhǔn)確度的基礎(chǔ)上,深度學(xué)習(xí)能夠完成更為復(fù)雜的任務(wù)。舉個(gè)例子,如果說(shuō)百度圖片搜索、微博自動(dòng)檢測(cè)圖片中的敏感詞屬于計(jì)算機(jī)理性認(rèn)知層面應(yīng)用的代表,那么像 Prisma 這樣的應(yīng)用就是在深度學(xué)習(xí)的幫助下,讓計(jì)算機(jī)不僅可以理性識(shí)別,還能感性認(rèn)知圖片,理解圖像的風(fēng)格與內(nèi)容關(guān)系。
這才是人工智能的意義所在。計(jì)算機(jī)感知能力的發(fā)展決定了機(jī)器世界能否真正建立自洽、完整的知識(shí)體系,最終實(shí)現(xiàn)對(duì)人類能力的替代、延伸和增強(qiáng)。
按領(lǐng)域內(nèi)容,深度學(xué)習(xí)在圖像中的應(yīng)用分為:圖像識(shí)別、分類、檢測(cè)、搜索、特征提取和視頻處理這幾大類別。其中,人臉識(shí)別是突破最快的深度學(xué)習(xí)圖像應(yīng)用。早在 2014 年便有多個(gè)初創(chuàng)科技團(tuán)隊(duì)達(dá)到了逼近或者超越肉眼的識(shí)別率,如下圖展示:
各公司利用自己的公開樣本集測(cè)試,提交測(cè)試結(jié)果。結(jié)果顯示,湯曉鷗教授團(tuán)隊(duì)研發(fā)的人臉識(shí)別產(chǎn)品 Deep ID 已經(jīng)超越肉眼的識(shí)別率。其中,小橫線上面是技術(shù)產(chǎn)品名,下面是團(tuán)隊(duì)名稱。(深藍(lán)制圖)
這幾家公司中,F(xiàn)acebook 已經(jīng)將 Deepface 的成果整合到自家產(chǎn)品中了。如今,用戶上傳照片到 Facebook 賬號(hào),系統(tǒng)就能自動(dòng)標(biāo)注圖中的每一個(gè)人。而曠視科技和以湯曉鷗教授為技術(shù)核心的 “商湯科技”,則主要為金融、安防等部門提供成熟的身份認(rèn)證產(chǎn)品,客戶包括支付寶、招商銀行、反恐部隊(duì)等。
商湯科技與曠視科技主要客戶對(duì)比圖(深藍(lán)制圖)
Facebook 可能是這三家巨頭中對(duì)深度學(xué)習(xí)圖像應(yīng)用最具有野心的大公司。據(jù)內(nèi)部可靠消息,F(xiàn)acebook 或?qū)⒃谙轮苣?016年8月底)將他們最新的研究成果代碼開源。如果用一句最簡(jiǎn)單的話來(lái)形容 Facebook的新突破,叫做 “采用無(wú)監(jiān)督學(xué)習(xí)讓計(jì)算機(jī)無(wú)中生有,自己生成圖片”。
三大互聯(lián)網(wǎng)公司在深度學(xué)習(xí)上的布局一覽。(深藍(lán)制圖)
在以往,人們讓計(jì)算機(jī)去做圖像生成采用的是監(jiān)督式學(xué)習(xí),即需要利用大量帶標(biāo)簽的數(shù)據(jù)去訓(xùn)練人工神經(jīng)網(wǎng)絡(luò),后者才能逐漸學(xué)會(huì)識(shí)別東西。比方說(shuō),給計(jì)算機(jī)看 1000 張貓的圖片,看多了之后神經(jīng)網(wǎng)絡(luò)會(huì)逐步對(duì)貓建立模型并識(shí)別其他貓的圖像。
但在今天,F(xiàn)acebook 采用的是無(wú)監(jiān)督學(xué)習(xí),讓計(jì)算機(jī)自主生成一些含有飛機(jī)、汽車、小鳥等東西在內(nèi)的場(chǎng)景圖像樣本,并令觀眾信以為真。
Google 的 Deep Dream 是一個(gè)會(huì)畫畫的計(jì)算機(jī)。它自動(dòng)識(shí)別圖像,篩選出某些部分,進(jìn)行夸張,以創(chuàng)造出一種迷幻效果。半年前,Deep Dream 于灣區(qū)舉辦了成功的畫展。Deep Dream 模仿 500 年前文藝復(fù)興時(shí)期的德國(guó)畫家漢斯·荷爾拜(Hans Holbein)的筆觸與繪畫技巧,畫出了一系列硅谷名人。每張畫作足以讓人們掏出幾千美金來(lái)收藏。
然而,Deep Dream 的算法有時(shí)候會(huì)給人驚嚇。如果它發(fā)現(xiàn)你的臉部線條有點(diǎn)像一只狗,于是它會(huì)把那一塊區(qū)域畫成一個(gè)完整的狗?!斑@就像吃了 LSD,計(jì)算機(jī)會(huì)出現(xiàn)幻覺。于是到處都是狗!” 一位來(lái)自 Google AI Lab 的員工說(shuō)。
Google Day Dream 的畫作。圖畫中不少區(qū)域被計(jì)算機(jī)處理成狗頭、漩渦。
無(wú)論如何,計(jì)算機(jī)正在向我們展示它們自己的夢(mèng)想。
參考文獻(xiàn):
i, Gatys, Leon, Alexander S. Ecker, and Matthias Bethge. "Texture synthesis using convolutional neural networks." Advances in Neural Information Processing Systems. 2015.
ii, Gatys, Leon, Alexander S. Ecker, and Matthias Bethge. "A neural algorithm of artistic style." arXiv preprint arXiv:1508.06576 (2015).
ii, 王曉剛. "深度學(xué)習(xí)在圖像識(shí)別中的研究進(jìn)展與展望". 2015.
iii, Venture Scanner. Artificial Intelligence Market Overview. 2016.
iv, He, Kaiming, et al. "Deep residual learning for image recognition." arXiv preprint arXiv:1512.03385 (2015).
v, Denton, Emily L., Soumith Chintala, and Rob Fergus. "Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks." Advances in neural information processing systems. 2015.
vi, Sun, Yi, et al. "Deep learning face representation by joint identification-verification." Advances in Neural Information Processing Systems. 2014.
vii, Sun, Yi, Xiaogang Wang, and Xiaoou Tang. "Deep learning face representation from predicting 10,000 classes." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2014.
viii, Sun, Yi, et al. "Deepid3: Face recognition with very deep neural networks." arXiv preprint arXiv:1502.00873 (2015).
雷鋒網(wǎng)注:本文為深藍(lán)DeeperBlue授權(quán)雷鋒網(wǎng)發(fā)布,轉(zhuǎn)載請(qǐng)聯(lián)系授權(quán),保留出處和作者,不得刪減內(nèi)容。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。