0
本文作者: 奕欣 | 2017-11-18 11:11 |
雷鋒網(wǎng) AI 科技評(píng)論按:本文轉(zhuǎn)載自「微軟研究院 AI 頭條」,雷鋒網(wǎng) AI 科技評(píng)論獲授權(quán)轉(zhuǎn)載。
隨著互聯(lián)網(wǎng)的不斷發(fā)展,可處理視頻的深度神經(jīng)網(wǎng)絡(luò)遠(yuǎn)比普通神經(jīng)網(wǎng)絡(luò)更難訓(xùn)練,如何減輕訓(xùn)練負(fù)擔(dān)成為了一項(xiàng)不可忽視的工作。來(lái)自微軟亞洲研究院多媒體搜索與挖掘組的研究成果「Learning Spatio-Temporal Representation with Pseudo-3D Residual Networks」,在正在舉辦的 International Conference on Computer Vision(ICCV)2017 會(huì)議上發(fā)布,它專注于如何利用大量視頻數(shù)據(jù)來(lái)訓(xùn)練視頻專用的深度三維卷積神經(jīng)網(wǎng)絡(luò),提出一種基于偽三維卷積(Pseudo-3D Convolution)的深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)思路,并實(shí)現(xiàn)了迄今為止最深的 199 層三維卷積神經(jīng)網(wǎng)絡(luò)。通過(guò)該網(wǎng)絡(luò)學(xué)習(xí)到的視頻表達(dá),在多個(gè)不同的視頻理解任務(wù)上取得了穩(wěn)定的性能提升。
1993 年 9 月,一款名為 NCSA Mosaic 的瀏覽器正式支持在網(wǎng)頁(yè)內(nèi)嵌入圖片,這標(biāo)志著互聯(lián)網(wǎng)從純文本時(shí)代邁入了「無(wú)圖無(wú)真相」的多媒體時(shí)代。如今,隨著互聯(lián)網(wǎng)帶寬的提升和高速移動(dòng)設(shè)備的普及,信息的獲取途徑和傳播途徑也在與日增加,視頻逐漸成為互聯(lián)網(wǎng)多媒體消費(fèi)的重要組成部分。
從傳統(tǒng)的視頻分享網(wǎng)站到電視電影節(jié)目的網(wǎng)絡(luò)化,再到現(xiàn)在新興的視頻直播網(wǎng)站和小視頻分享網(wǎng)站,互聯(lián)網(wǎng)視頻已經(jīng)進(jìn)入了爆炸式發(fā)展的新階段。據(jù)統(tǒng)計(jì),僅僅以視頻分享網(wǎng)站 YouTube 為例,平均每分鐘就有約 300 小時(shí)的視頻上傳到 YouTube 上,每天的視頻觀看次數(shù)更是高達(dá) 50 億次。數(shù)量如此巨大的視頻內(nèi)容與觀看次數(shù)對(duì)視頻處理、分類、推薦等常見(jiàn)視頻相關(guān)技術(shù)提出了更高的要求,也提供了更廣闊的應(yīng)用場(chǎng)景。
在視頻處理相關(guān)技術(shù)中,視頻特征描述學(xué)習(xí)(Representation Learning)是一個(gè)最基本的問(wèn)題。學(xué)習(xí)視頻的特征表達(dá)是幾乎所有視頻處理和分析的基礎(chǔ),其中包括視頻標(biāo)注、動(dòng)作識(shí)別、視頻監(jiān)控、視頻檢索、視頻場(chǎng)景識(shí)別、視頻分割、視頻自然語(yǔ)言描述和基于視頻的人機(jī)交互等等。
然而目前視頻識(shí)別的相關(guān)研究多數(shù)使用的是基于圖像的卷積神經(jīng)網(wǎng)絡(luò)(如微軟研究院在 2015 提出的殘差神經(jīng)網(wǎng)絡(luò) ResNet)來(lái)學(xué)習(xí)視頻特征,這種方法僅僅是對(duì)單幀圖像的 CNN 特征進(jìn)行融合,因此往往忽略了相鄰的連續(xù)視頻幀間的聯(lián)系以及視頻中的動(dòng)作信息。目前,視頻專用的深度神經(jīng)網(wǎng)絡(luò)還很缺乏。
在 International Conference on Computer Vision(ICCV)2017 會(huì)議上,微軟亞洲研究院發(fā)布了多媒體搜索與挖掘組最新的研究成果——Learning Spatio-Temporal Representation with Pseudo-3D Residual Networks[1]。這項(xiàng)工作主要集中在如何利用大量視頻數(shù)據(jù)來(lái)訓(xùn)練視頻專用的深度三維卷積神經(jīng)網(wǎng)絡(luò),它提出了一種基于偽三維卷積(Pseudo-3D Convolution)的深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)思路,并實(shí)現(xiàn)了迄今為止最深的 199 層三維卷積神經(jīng)網(wǎng)絡(luò)。通過(guò)該網(wǎng)絡(luò)學(xué)習(xí)到的視頻表達(dá),在多個(gè)不同的視頻理解任務(wù)上取得了穩(wěn)定的性能提升。
為了使用深度神經(jīng)網(wǎng)絡(luò)來(lái)提取視頻中時(shí)間和空間維度上的信息,一種直接的思路就是將用于圖像特征學(xué)習(xí)的二維卷積拓展為三維卷積(3D Convolution),同時(shí)在時(shí)間和空間維度上進(jìn)行卷積操作。如此一來(lái),由三維卷積操作構(gòu)成的三維卷積神經(jīng)網(wǎng)絡(luò)可以在獲取每一幀視覺(jué)特征的同時(shí),也能表達(dá)相鄰幀隨時(shí)間推移的關(guān)聯(lián)與變化,如下圖所示。
然而這樣的設(shè)計(jì)在實(shí)踐中卻存在一定的困難。首先,時(shí)間維度的引入使得整個(gè)神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量、運(yùn)行時(shí)間和訓(xùn)練所需的 GPU 內(nèi)存都將大幅增長(zhǎng);其次,隨機(jī)初始化的三維卷積核需要大量精細(xì)標(biāo)注的視頻數(shù)據(jù)來(lái)進(jìn)行訓(xùn)練。受困于以上兩點(diǎn),近些年關(guān)于三維卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展十分緩慢,其中最著名的 C3D[2] 網(wǎng)絡(luò)只有 11 層,模型大小卻達(dá)到 321MB,甚至大于 152 層 ResNet[3] 的 235MB 模型。
為了解決以上的局限性,我們提出了一系列基于偽三維卷積和殘差學(xué)習(xí)(Residual Learning)的神經(jīng)網(wǎng)絡(luò)模塊,用以同時(shí)在時(shí)間和空間上進(jìn)行卷積操作。其中,偽三維卷積是這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)的核心操作,基本思想是利用一個(gè) 1*3*3 的二維空間卷積和 3*1*1 的一維時(shí)域卷積來(lái)模擬常用的 3*3*3 三維卷積。通過(guò)簡(jiǎn)化,偽三維卷積神經(jīng)網(wǎng)絡(luò)相比于同樣深度的二維卷積神經(jīng)網(wǎng)絡(luò)僅僅增添了一定數(shù)量的一維卷積,在參數(shù)數(shù)量、運(yùn)行速度等方面并不會(huì)產(chǎn)生過(guò)度的增長(zhǎng)。與此同時(shí),由于其中的二維卷積核可以使用圖像數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,對(duì)于已標(biāo)注視頻數(shù)據(jù)的需求也會(huì)大大減少。結(jié)合殘差學(xué)習(xí)的思想,該論文提出三種不同的偽三維卷積殘差單元(P3D-A,P3D-B,P3D-C)分別使用串行、并行和帶捷徑(shortcut)的串行三種方式來(lái)確定空間卷積和時(shí)域卷積之間的關(guān)系。
通過(guò)使用以上三種偽三維殘差單元替代 152 層 ResNet 中的二維殘差單元,該工作得到了目前最深的 199 層三維卷積網(wǎng)絡(luò)結(jié)構(gòu)。最終經(jīng)過(guò) ImageNet 數(shù)據(jù)集中的圖片數(shù)據(jù)和 Sports-1M(包含了 487 個(gè)類別的百萬(wàn)級(jí)視頻片段)[4] 視頻數(shù)據(jù)的訓(xùn)練,該網(wǎng)絡(luò)在視頻動(dòng)作識(shí)別(Action Recognition)、視頻相似度分析(Video Similarity)和視頻場(chǎng)景識(shí)別(Scene Recognition)三個(gè)不同的視頻理解任務(wù)上均獲得了穩(wěn)定的性能提升,并且在 CVPR 2017 的 Activity Net Challenge 的 Dense-Captioning 任務(wù)中獲得第一名。
除了利用偽三維卷積網(wǎng)絡(luò)提取特征外,該網(wǎng)絡(luò)還可以作為其它方法的基本網(wǎng)絡(luò)結(jié)構(gòu),從而提升其它基于神經(jīng)網(wǎng)絡(luò)方法的視頻識(shí)別性能。以雙流(Two-stream)方法為例,在 UCF101 的視頻動(dòng)作識(shí)別任務(wù)上,如果使用偽三維卷積網(wǎng)絡(luò)作為基本網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)的 Two-stream 框架無(wú)論是單個(gè)幀分支(Frame)與光流分支(Flow),或者是最終兩個(gè)分支合并的結(jié)果,都超過(guò)了其它網(wǎng)絡(luò)結(jié)構(gòu)。
以上的實(shí)驗(yàn)結(jié)果驗(yàn)證了偽三維卷積殘差網(wǎng)絡(luò)可以有效學(xué)習(xí)來(lái)自大量圖像和視頻訓(xùn)練數(shù)據(jù)中的類別信息。在與二維卷積殘差網(wǎng)絡(luò)和傳統(tǒng)三維卷積網(wǎng)絡(luò)的對(duì)比中,該結(jié)構(gòu)成功地提升了在不同視頻識(shí)別任務(wù)上的性能。關(guān)于偽三維殘差網(wǎng)絡(luò)相關(guān)的代碼和模型詳見(jiàn) https://github.com/ZhaofanQiu/pseudo-3d-residual-networks。
該工作基于偽三維卷積和殘差結(jié)構(gòu)給出了訓(xùn)練超深度三維卷積網(wǎng)絡(luò)的可能性,然而本文中提到的神經(jīng)網(wǎng)絡(luò)目前主要針對(duì)視頻分類問(wèn)題。面對(duì)紛繁復(fù)雜的視頻內(nèi)容與視頻應(yīng)用需求,單一的神經(jīng)網(wǎng)絡(luò)很難滿足。針對(duì)不同的應(yīng)用,視頻專用神經(jīng)網(wǎng)絡(luò)有以下三個(gè)具有潛力的發(fā)展方向:
第一,視頻檢索(Video Search)專用神經(jīng)網(wǎng)絡(luò)。視頻檢索、視頻推薦是大型視頻分享網(wǎng)站所要面對(duì)的首要問(wèn)題,給予用戶良好的檢索體驗(yàn),并適當(dāng)?shù)赝扑]用戶需要的視頻內(nèi)容,幫助用戶快速地找到自己感興趣的視頻。
第二,視頻分割(Semantic Video Segmentation)專用神經(jīng)網(wǎng)絡(luò)。視頻分割的目標(biāo)在于像素級(jí)別地分割出視頻中的人、車(chē)等常見(jiàn)物體。而隨著 AR/VR 技術(shù)的發(fā)展,像素級(jí)別的目標(biāo)識(shí)別可以輔助許多不同的 AR/VR 相關(guān)應(yīng)用,這也促進(jìn)了視頻分割的發(fā)展。
第三,視頻生成(Video Generation)專用神經(jīng)網(wǎng)絡(luò)。隨著用戶越來(lái)越容易地在不同設(shè)備上進(jìn)行視頻拍攝,非專業(yè)用戶對(duì)視頻的自動(dòng)/半自動(dòng)編輯、美化也逐漸有了更多的需求。因此,視頻生成神經(jīng)網(wǎng)絡(luò)便可以幫助用戶編輯創(chuàng)作自己的視頻作品。
隨著卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,人工智能在很多圖像相關(guān)任務(wù)上的性能都產(chǎn)生了飛躍,也有大量相關(guān)技術(shù)從學(xué)術(shù)圈慢慢地走進(jìn)了我們的生活。但是由于視頻包含信息太過(guò)復(fù)雜,大數(shù)據(jù)的獲取、存儲(chǔ)、處理均存在一定困難,導(dǎo)致視頻相關(guān)技術(shù)在很多方面仍然進(jìn)步緩慢,相信隨著視頻專用卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,這部分的不足也會(huì)逐漸被彌補(bǔ)。
無(wú)論是文本、圖像還是視頻,人工智能的發(fā)展在滿足互聯(lián)網(wǎng)用戶需求的同時(shí)也始終推動(dòng)著用戶習(xí)慣的變遷。有了合理的算法對(duì)視頻進(jìn)行分析、推薦,可以幫助互聯(lián)網(wǎng)用戶獲得更好的瀏覽體驗(yàn);有了用戶更好的反饋及更大的點(diǎn)擊量,可以讓視頻產(chǎn)業(yè)規(guī)模進(jìn)一步擴(kuò)大;更大規(guī)模的視頻數(shù)據(jù)會(huì)進(jìn)一步對(duì)視頻相關(guān)算法提出更高的要求。在這樣的循環(huán)之下,視頻產(chǎn)業(yè)本身必將伴隨著視頻相關(guān)算法快速地發(fā)展,迎接更美好的未來(lái)。
參考文獻(xiàn)
[1] Z. Qiu, T. Yao, T. Mei.Learning Spatio-Temporal Representation with Pseudo-3D Residual Networks. InICCV, 2017.
[2] D. Tran, L. Bourdev, R. Fergus, L. Torresani, and M.Paluri. Learning spatiotemporal features with 3d convolutional networks. InICCV, 2015.
[3] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In CVPR, 2016.
[4] A. Karpathy, G. Toderici, S. Shetty, T. Leung, R.Sukthankar, and L. Fei-Fei. Large-scale video classification with convolutional neural networks. In CVPR, 2014.
作者介紹
邱釗凡,微軟亞洲研究院和中國(guó)科學(xué)技術(shù)大學(xué)聯(lián)合培養(yǎng)博士生,導(dǎo)師為梅濤研究員和田新梅副教授。主要研究方向包括視頻特征學(xué)習(xí)、視頻動(dòng)作識(shí)別和多媒體內(nèi)容分析。他曾于 2015 年在中國(guó)科學(xué)技術(shù)大學(xué)獲得學(xué)士學(xué)位,并于 2017 年獲得微軟學(xué)者獎(jiǎng)學(xué)金。
姚霆博士,微軟亞洲研究院多媒體搜索與挖掘組研究員,主要研究興趣為視頻理解、大規(guī)模多媒體搜索和深度學(xué)習(xí)。他帶領(lǐng)研究團(tuán)隊(duì)在 COCO 圖像描述自動(dòng)生成、2017 年 VISDA 視覺(jué)領(lǐng)域自適應(yīng)語(yǔ)義分割任務(wù)、2016&2017 年 ActivityNet 視頻行為識(shí)別等多個(gè)國(guó)際級(jí)比賽中取得了世界領(lǐng)先的成績(jī)。他于 2014 年在香港城市大學(xué)獲得計(jì)算機(jī)科學(xué)博士學(xué)位并于 2015 年榮獲 SIGMM Outstanding Ph.D. Thesis Award。
梅濤博士,微軟亞洲研究院資深研究員,主要研究興趣為多媒體分析、計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)。他的研究團(tuán)隊(duì)目前致力于視頻和圖像的深度理解、分析和應(yīng)用。他同時(shí)擔(dān)任 IEEE 和 ACM 多媒體匯刊(IEEE TMM 和 ACM TOMM)以及模式識(shí)別(Pattern Recognition)等學(xué)術(shù)期刊的編委,并且是多個(gè)國(guó)際多媒體會(huì)議的大會(huì)主席和程序委員會(huì)主席。他是國(guó)際模式識(shí)別學(xué)會(huì)會(huì)士,美國(guó)計(jì)算機(jī)協(xié)會(huì)杰出科學(xué)家,中國(guó)科學(xué)技術(shù)大學(xué)和中山大學(xué)兼職教授。
相關(guān)文章:
專訪微軟亞洲研究院副院長(zhǎng)張益肇:我們?cè)跒?MSRA 布哪些醫(yī)療局?
MSRA獲ACM TOMM 2017最佳論文:讓AI接手繁雜專業(yè)的圖文排版設(shè)計(jì)工作
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。