0
本文作者: 楊曉凡 | 2017-10-27 08:17 |
雷鋒網(wǎng) AI 科技評(píng)論報(bào)道:中國(guó)計(jì)算機(jī)學(xué)會(huì) CCF 舉辦的中國(guó)計(jì)算機(jī)大會(huì)CNCC 2017已于10月26日在福州市海峽國(guó)際會(huì)展中心開(kāi)幕。參加會(huì)議的人數(shù)眾多,主會(huì)場(chǎng)座無(wú)虛席。雷鋒網(wǎng) AI 科技評(píng)論也派出記者團(tuán)全程參與大會(huì)報(bào)道。
26日上午開(kāi)幕式結(jié)束后,多位特邀嘉賓進(jìn)行了現(xiàn)場(chǎng)演講,主題涵蓋計(jì)算機(jī)科學(xué)發(fā)展中的新技術(shù)和應(yīng)用、自然語(yǔ)言利凈額、AI如何服務(wù)于人、人工智能在信息平臺(tái)的應(yīng)用等等。斯坦福大學(xué)副教授、谷歌云首席科學(xué)家、機(jī)器學(xué)習(xí)界的標(biāo)桿人物之一的李飛飛進(jìn)行了題目為「Visual Intelligence: Beyond ImageNet」的演講。
李飛飛首先介紹了視覺(jué)對(duì)生物的重要性,以及計(jì)算機(jī)視覺(jué)在物體識(shí)別任務(wù)中的飛速發(fā)展。然后繼續(xù)與大家討論了計(jì)算機(jī)視覺(jué)的下一步目標(biāo):豐富場(chǎng)景理解,以及計(jì)算機(jī)視覺(jué)與語(yǔ)言結(jié)合和任務(wù)驅(qū)動(dòng)的計(jì)算機(jī)視覺(jué)的進(jìn)展和前景。場(chǎng)景理解和與語(yǔ)言結(jié)合的計(jì)算機(jī)視覺(jué)進(jìn)一步搭起了人類和計(jì)算機(jī)之間溝通的橋梁,任務(wù)驅(qū)動(dòng)的計(jì)算機(jī)視覺(jué)也會(huì)在機(jī)器人領(lǐng)域大放異彩。李飛飛介紹的自己團(tuán)隊(duì)的工作也豐富多樣、令人振奮。
李飛飛首先介紹了構(gòu)建視覺(jué)智能中的第一個(gè)里程碑,那就是物體識(shí)別。人類具有無(wú)與倫比的視覺(jué)識(shí)別能力,認(rèn)知神經(jīng)科學(xué)家們的許多研究都展示出了這一現(xiàn)象。李飛飛在現(xiàn)場(chǎng)與聽(tīng)眾們做了一個(gè)小互動(dòng),在屏幕上閃過(guò)一系列持續(xù)時(shí)間只有0.1秒的照片,不加任何別的說(shuō)明,而觀眾們還是能夠識(shí)別到有一張中有一個(gè)人。
MIT教授Simon Thorpe在1996年的一個(gè)實(shí)驗(yàn)中,也通過(guò)記錄腦波的方式表明,人類只需要觀察一張復(fù)雜照片150ms的時(shí)間,就能辨別出其中是否包含動(dòng)物,不管是哺乳動(dòng)物、鳥(niǎo)類、魚,還是蟲子。
這種對(duì)復(fù)雜物體的快速視覺(jué)識(shí)別能力是人類視覺(jué)系統(tǒng)的基本特質(zhì),而這也是計(jì)算機(jī)視覺(jué)中的“圣杯”。在過(guò)去的20年中,物體識(shí)別都是計(jì)算機(jī)視覺(jué)社區(qū)研究的重要任務(wù)。ImageNet就是起到了貢獻(xiàn)的數(shù)據(jù)集之一。
從2010年以來(lái),從 2010 到 2017,ImageNet 挑戰(zhàn)賽的物體識(shí)別錯(cuò)誤率下降到了原來(lái)的十分之一。到 2015 年,錯(cuò)誤率已經(jīng)達(dá)到甚至低于人類水平。這基本表明計(jì)算機(jī)視覺(jué)已經(jīng)基本攻克了簡(jiǎn)單的物體識(shí)別問(wèn)題。
計(jì)算機(jī)視覺(jué)研究當(dāng)然不會(huì)止步于 ImageNet 和物體識(shí)別,這僅僅是人類豐富視覺(jué)感受的基礎(chǔ)。
下一個(gè)關(guān)鍵步驟就是視覺(jué)關(guān)系的識(shí)別。這項(xiàng)任務(wù)的定義是:“把一張照片輸入算法模型中,希望算法可以識(shí)別出其中的重點(diǎn)物體,找到它們的所在位置,并且找到它們之間的兩兩關(guān)系”。
兩張照片都是人和羊駝,但是發(fā)生的事情完全不同。這就是單純的物體識(shí)別所無(wú)法描述的了。
在深度學(xué)習(xí)時(shí)代之前,這方面也有不少的研究,但多數(shù)都只能在人為控制的空間中分析空間關(guān)系、動(dòng)作關(guān)系、類似關(guān)系等寥寥幾種關(guān)系。隨著計(jì)算力和數(shù)據(jù)量的爆發(fā),在深度學(xué)習(xí)時(shí)代研究者們終于能夠做出大的進(jìn)展。這需要卷積神經(jīng)網(wǎng)絡(luò)的視覺(jué)表征和語(yǔ)言模型的結(jié)合。
在李飛飛團(tuán)隊(duì)ECCV2016的收錄論文中,他們的模型已經(jīng)可以預(yù)測(cè)空間關(guān)系、比較關(guān)系、語(yǔ)義關(guān)系、動(dòng)作關(guān)系和位置關(guān)系,在“列出所有物體”之外,向著場(chǎng)景內(nèi)的物體的豐富關(guān)系理解邁出了堅(jiān)實(shí)的一步。
除了關(guān)系預(yù)測(cè)之外,還可以做無(wú)樣本學(xué)習(xí)。舉個(gè)例子,用人坐在椅子上的照片訓(xùn)練模型,加上用消防栓在地上的圖片訓(xùn)練模型。然后再拿出另一張圖片,一個(gè)人坐在消防栓上。雖然算法沒(méi)見(jiàn)過(guò)這張圖片,但能夠表達(dá)出這是“一個(gè)人坐在消防栓上”。
類似的,算法能識(shí)別出“一匹馬戴著帽子”,雖然訓(xùn)練集里只有“人騎馬”以及“人戴著帽子”的圖片。
在李飛飛團(tuán)隊(duì)的 ECCV 2016 論文之后,今年有一大堆相關(guān)論文發(fā)表了出來(lái),一些甚至已經(jīng)超過(guò)了他們模型的表現(xiàn)。她也非常欣喜看到這項(xiàng)任務(wù)相關(guān)研究的繁榮發(fā)展。
在物體識(shí)別問(wèn)題已經(jīng)很大程度上解決以后,李飛飛的下一個(gè)目標(biāo)是走出物體本身。微軟的Coco數(shù)據(jù)集就已經(jīng)不再是圖像+標(biāo)簽,而是圖像+一個(gè)簡(jiǎn)短的句子描述圖像中的主要內(nèi)容。
經(jīng)過(guò)三年的準(zhǔn)備后,李飛飛團(tuán)隊(duì)推出了Visual Genome數(shù)據(jù)集,包含了10萬(wàn)張圖像、420萬(wàn)條圖像描述、180萬(wàn)個(gè)問(wèn)答對(duì)、140萬(wàn)個(gè)帶標(biāo)簽的物體、150萬(wàn)條關(guān)系以及170萬(wàn)條屬性。這是一個(gè)非常豐富的數(shù)據(jù)集,它的目標(biāo)就是走出物體本身,關(guān)注更為廣泛的對(duì)象之間的關(guān)系、語(yǔ)言、推理等等。
在Visual Genome數(shù)據(jù)集之后,李飛飛團(tuán)隊(duì)做的另一項(xiàng)研究是重新認(rèn)識(shí)場(chǎng)景識(shí)別。
場(chǎng)景識(shí)別單獨(dú)來(lái)看是一項(xiàng)簡(jiǎn)單的任務(wù),在谷歌里搜索“穿西裝的男人”或者“可愛(ài)的小狗”,都能直接得到理想的結(jié)果。
但是當(dāng)你搜索“穿西裝的男人抱著可愛(ài)的小狗”的時(shí)候,就得不到什么好結(jié)果。它的表現(xiàn)在這里就變得糟糕了,這種物體間的關(guān)系是一件很難處理的事情。
如果只關(guān)注了“長(zhǎng)椅”和“人”的物體識(shí)別,就得不到“人坐在長(zhǎng)椅上”的關(guān)系;即便訓(xùn)練網(wǎng)絡(luò)識(shí)別“坐著的人”,也無(wú)法保證看清全局。
他們有個(gè)想法是,把物體之外、場(chǎng)景之內(nèi)的關(guān)系全都包含進(jìn)來(lái),然后再想辦法提取精確的關(guān)系。
如果有一張場(chǎng)景圖(graph),其中包含了場(chǎng)景內(nèi)各種復(fù)雜的語(yǔ)義信息,那場(chǎng)景識(shí)別就能做得好得多。其中的細(xì)節(jié)可能難以全部用一個(gè)長(zhǎng)句子描述,但是把一個(gè)長(zhǎng)句子變成一個(gè)場(chǎng)景圖之后,我們就可以用圖相關(guān)的方法把它和圖像做對(duì)比;場(chǎng)景圖也可以編碼為數(shù)據(jù)庫(kù)的一部分,從數(shù)據(jù)庫(kù)的角度進(jìn)行查詢。
李飛飛團(tuán)隊(duì)已經(jīng)用場(chǎng)景圖匹配技術(shù)在包含了許多語(yǔ)義信息的場(chǎng)景里得到了許多不錯(cuò)的量化結(jié)果。不過(guò),這些場(chǎng)景圖是誰(shuí)來(lái)定義的呢?在Visual Genome數(shù)據(jù)集中,場(chǎng)景圖都是人工定義的,里面的實(shí)體、結(jié)構(gòu)、實(shí)體間的關(guān)系和到圖像的匹配都是李飛飛團(tuán)隊(duì)人工完成的,過(guò)程挺痛苦的,他們也不希望以后還要對(duì)每一個(gè)場(chǎng)景都做這樣的工作。所以在這項(xiàng)工作之后,他們也正在把注意力轉(zhuǎn)向自動(dòng)場(chǎng)景圖生成。
比如這項(xiàng)她和她的學(xué)生們共同完成的CVPR2017論文就是一個(gè)自動(dòng)生成場(chǎng)景圖的方案,對(duì)于一張輸入圖像,首先得到物體識(shí)別的備選結(jié)果,然后用圖推理算法得到實(shí)體和實(shí)體之間的關(guān)系等等;這個(gè)過(guò)程都是自動(dòng)完成的。
這里涉及到了一些迭代信息傳遞算法,李飛飛并沒(méi)有詳細(xì)解釋。但這個(gè)結(jié)果體現(xiàn)出的是,這個(gè)模型的工作方式和人的做法已經(jīng)有不少相似之處了。
這代表著一組全新的可能性來(lái)到了人類面前。借助場(chǎng)景圖,們可以做信息提取、可以做關(guān)系預(yù)測(cè)、可以理解對(duì)應(yīng)關(guān)系等等。
QA問(wèn)題也得到了更好的解決。
還有一個(gè)研究目標(biāo)是,給圖片配上整段的說(shuō)明文字。
當(dāng)李飛飛在加州理工學(xué)院讀博士的時(shí)候做過(guò)一個(gè)實(shí)驗(yàn),就讓人們觀察一張照片,然后讓他們盡可能地說(shuō)出自己在照片中看到的東西。當(dāng)時(shí)做實(shí)驗(yàn)的時(shí)候,在受試者面前的屏幕上快速閃過(guò)一張照片,然后用一個(gè)別的圖像、墻紙一樣的圖像蓋住它,它的作用是把他們視網(wǎng)膜暫留的信息清除掉。
接下來(lái)就讓他們盡可能多地寫下自己看到的東西。從結(jié)果上看,有的照片好像比較容易,但是其實(shí)只是因?yàn)槲覀冞x擇了不同長(zhǎng)短的展示時(shí)間,最短的照片只顯示了27毫秒,這已經(jīng)達(dá)到了當(dāng)時(shí)顯示器的顯示速度上限;有些照片顯示了0.5秒的時(shí)間,對(duì)人類視覺(jué)理解來(lái)說(shuō)可算是綽綽有余了。
對(duì)于這張照片,時(shí)間很短的時(shí)候看清的內(nèi)容也很有限,500毫秒的時(shí)候他們就能寫下很長(zhǎng)一段。進(jìn)化給了我們這樣的能力,只看到一張圖片就可以講出一個(gè)很長(zhǎng)的故事。
在過(guò)去的3年里,CV領(lǐng)域的研究人員們就在研究如何把圖像中的信息變成故事。
他們首先研究了圖像說(shuō)明,比如借助CNN把圖像中的內(nèi)容表示到特征空間,然后用LSTM這樣的RNN生成一系列文字。這類工作在2015年左右有很多成果,從此之后我們就可以讓計(jì)算機(jī)給幾乎任何東西配上一個(gè)句子。
比如這兩個(gè)例子,“一位穿著橙色馬甲的工人正在鋪路”和“穿著黑色襯衫的男人正在彈吉他”。
這都是CVPR2015上的成果。兩年過(guò)去了,李飛飛團(tuán)隊(duì)的算法也已經(jīng)不是最先進(jìn)的了,不過(guò)那時(shí)候確實(shí)是是圖像說(shuō)明這個(gè)領(lǐng)域的開(kāi)拓性工作之一。
沿著這個(gè)方向繼續(xù)做研究,他們迎來(lái)的下一個(gè)成果是稠密說(shuō)明,就是在一幅圖片中有很多個(gè)區(qū)域都會(huì)分配注意力,這樣有可以有很多個(gè)不同的句子描述不同的區(qū)域,而不僅僅是用一個(gè)句子描述整個(gè)場(chǎng)景。在這里就用到了CNN模型和邏輯區(qū)域檢測(cè)模型的結(jié)合,再加上一個(gè)語(yǔ)言模型,這樣就可以對(duì)場(chǎng)景做稠密的標(biāo)注。
比如這張圖里就可以生成,“有兩個(gè)人坐在椅子上”、“有一頭大象”、“有一棵樹(shù)”等等
另一張李飛飛的學(xué)生們的室內(nèi)照片也標(biāo)出了豐富的內(nèi)容。
在最近的CVPR2017的研究中,他們讓表現(xiàn)邁上了一個(gè)新的臺(tái)階,不只是簡(jiǎn)單的說(shuō)明句子,還要生成文字段落,把它們以具有空間意義的方式連接起來(lái)。這樣我們就可以寫出“一只長(zhǎng)頸鹿站在樹(shù)邊,在它的右邊有一個(gè)有葉子的桿子,在籬笆的后面有一個(gè)黑色和白色的磚壘起來(lái)的建筑”,等等。雖然里面有錯(cuò)誤,而且也遠(yuǎn)比不上莎士比亞的作品,但我們已經(jīng)邁出了視覺(jué)和語(yǔ)言結(jié)合的第一步。
而且,視覺(jué)和語(yǔ)言的結(jié)合并沒(méi)有停留在靜止的圖像上,剛才的只是最新成果之一。在另外的研究中,他們把視頻和語(yǔ)言結(jié)合起來(lái)。
比如這個(gè)CVPR2017的研究,可以對(duì)一個(gè)說(shuō)明性視頻中不同的部分做聯(lián)合推理、整理出文本結(jié)構(gòu)。這里的難點(diǎn)是解析文本中的實(shí)體,比如第一步是“攪拌蔬菜”,然后“拿出混合物”。如果算法能夠解析出“混合物”指的是前一步里混合的蔬菜,那就棒極了。
在語(yǔ)言之后,李飛飛還介紹了任務(wù)驅(qū)動(dòng)的視覺(jué)問(wèn)題。對(duì)整個(gè)AI研究大家庭來(lái)說(shuō),任務(wù)驅(qū)動(dòng)的AI是一個(gè)共同的長(zhǎng)期夢(mèng)想,從一開(kāi)始人類就希望用語(yǔ)言給機(jī)器人下達(dá)指定,然后機(jī)器人用視覺(jué)方法觀察世界、理解并完成任務(wù)。
這是一個(gè)經(jīng)典的任務(wù)驅(qū)動(dòng)問(wèn)題,人類說(shuō):“藍(lán)色的金字塔很好。我喜歡不是紅色的立方體,但是我也不喜歡任何一個(gè)墊著5面體的東西。那我喜歡那個(gè)灰色的盒子嗎?” 那么機(jī)器,或者機(jī)器人,或者智能體就會(huì)回答:“不,因?yàn)樗鼔|著一個(gè)5面體”。它就是任務(wù)驅(qū)動(dòng)的,對(duì)這個(gè)復(fù)雜的世界做理解和推理。
李飛飛團(tuán)隊(duì)和Facebook合作重新研究這類問(wèn)題,創(chuàng)造了帶有各種幾何體的場(chǎng)景,然后給人工智能提問(wèn),看它會(huì)如何理解、推理、解決這些問(wèn)題。這其中會(huì)涉及到屬性的辨別、計(jì)數(shù)、對(duì)比、空間關(guān)系等等。
在這方面的第一篇論文用了CNN+LSTM+注意力模型,結(jié)果算不上差,人類能達(dá)到超過(guò)90%的正確率,機(jī)器雖然能做到接近70%了,但是仍然有巨大的差距。有這個(gè)差距就是因?yàn)槿祟惸軌蚪M合推理,機(jī)器則做不到。
而在ICCV上,他們介紹了新一篇論文中的成果。借助新的CLEVR數(shù)據(jù)集,把一個(gè)問(wèn)題分解成帶有功能的程序段,然后在程序段基礎(chǔ)上訓(xùn)練一個(gè)能回答問(wèn)題的執(zhí)行引擎。這個(gè)方案在嘗試推理真實(shí)世界問(wèn)題的時(shí)候就具有高得多的組合能力。
在測(cè)試中也終于超出了人類的表現(xiàn)。
模型的實(shí)際表現(xiàn)當(dāng)然不錯(cuò)。比如這個(gè)例子里,我們提問(wèn)某種顏色的東西是什么形狀的,它就會(huì)回答“是一個(gè)立方體”這樣,表明了它的推理是正確的。它還可以數(shù)出東西的數(shù)目。這都體現(xiàn)出了算法可以對(duì)場(chǎng)景做推理。熱力圖也展示出了模型正確地關(guān)注了圖中的區(qū)域。
圖像相關(guān)的任務(wù)說(shuō)了這么多,李飛飛把它們總結(jié)為了兩大類
首先是除了物體識(shí)別之外的關(guān)系識(shí)別、復(fù)雜語(yǔ)意表征、場(chǎng)景圖;
在場(chǎng)景gist之外,我們需要用視覺(jué)+語(yǔ)言處理單句標(biāo)注、段落生成、視頻理解、聯(lián)合推理;
李飛飛最后展示了她女兒的照片,她只有20個(gè)月大,但視覺(jué)能力也是她的日常生活里重要的一部分,讀書、畫畫、觀察情感等等,這些重大的進(jìn)步都是這個(gè)領(lǐng)域未來(lái)的研究目標(biāo)。
視覺(jué)智慧是理解、交流、合作、交互等等的關(guān)鍵一步,人類在這方面的探索也只稱得上是剛剛開(kāi)始。
(完)
CNCC2017還在進(jìn)行中,請(qǐng)期待雷鋒網(wǎng) AI 科技評(píng)論帶來(lái)的后續(xù)精彩報(bào)道。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。