0
本文作者: 奕欣 | 2017-10-24 17:32 | 專題:ICCV 2017 |
雷鋒網(wǎng) AI 科技評論按:ICCV,被譽(yù)為計(jì)算機(jī)視覺領(lǐng)域三大頂級會議之一的、作為計(jì)算機(jī)視覺領(lǐng)域最高級別的會議之一,其論文集代表了計(jì)算機(jī)視覺領(lǐng)域最新的發(fā)展方向和水平。阿里巴巴在今年的 ICCV 2017上有多篇論文入選。
本文是阿里iDST與西安電子科大、西安交大等合作的 ICCV 2017 論文解讀《基于層次化多模態(tài)LSTM的視覺語義聯(lián)合嵌入》(Hierarchical Multimodal LSTM for Dense Visual-Semantic Embedding),雷鋒網(wǎng)AI科技評論做了不改動原意的編輯。
論文下載鏈接:http://openaccess.thecvf.com/ICCV2.py
近年來, 隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展, 人們開始嘗試將計(jì)算機(jī)視覺 (Vision) 和自然語言處理 (Language) 兩個(gè)相對獨(dú)立的領(lǐng)域聯(lián)合起來進(jìn)行研究, 實(shí)現(xiàn)一些在過去看來非常困難的任務(wù),例如「視覺-語義聯(lián)合嵌入 (Visual-Semantic Embedding)」。該任務(wù)需要將圖像及語句表示成一個(gè)固定長度的向量,進(jìn)而嵌入到同一個(gè)矢量空間中。這樣,通過該空間中的近鄰搜索可以實(shí)現(xiàn)圖像和語句的匹配、檢索等。
視覺語義聯(lián)合嵌入的一個(gè)典型應(yīng)用就是圖像標(biāo)題生成(Image Captioning):對于任意輸入的一張圖像, 在空間中找到最匹配的一句話, 實(shí)現(xiàn)圖像內(nèi)容的描述。在電商場景下, 淘寶賣家在發(fā)布一件商品時(shí), 該算法可以根據(jù)賣家上傳得圖片, 自動生成一段描述性文字, 供賣家編輯發(fā)布使用。再比如,視覺語義聯(lián)合嵌入還可以應(yīng)用于「跨模態(tài)檢索 (Cross-media Retrieval)」:當(dāng)用戶在電商搜索引擎中輸入一段描述性文字(如「夏季寬松波希米亞大擺沙灘裙」、「文藝小清新娃娃領(lǐng)飛飛袖碎花 A 字裙」等), 通過文字-圖像聯(lián)合分析, 從商品圖像數(shù)據(jù)庫中找到最相關(guān)的商品圖像返回給用戶。
以往的視覺語義聯(lián)合嵌入方法往往只能對比較短的句子進(jìn)行嵌入,進(jìn)而只能對圖像做簡單而粗略的描述,然而在實(shí)際應(yīng)用中,人們更希望得到對圖像(或圖像顯著區(qū)域)更為細(xì)致精確的描述。如圖 1 所示,我們不僅想知道誰在干什么,還想知道人物的外表,周圍的物體,背景,時(shí)間地點(diǎn)等。
現(xiàn)有方法:「A girl is playing a guitar.」
我們提出的方法:「a young girl sitting on a bench is playing a guitar with a black and white dog nearby.」
圖 1 現(xiàn)有方法的問題
為了實(shí)現(xiàn)這個(gè)目標(biāo),我們提出一個(gè)框架:第一步從圖像中找出一些顯著性區(qū)域,并用具有描述性的短語描述每個(gè)區(qū)域;第二步將這些短語組合成一個(gè)非常長的具有描述性的句子,如圖 2 所示。
圖 2 我們提出的框架
為此,我們在訓(xùn)練視覺語義聯(lián)合嵌入模型時(shí)不僅需要將整個(gè)句子嵌入空間,更應(yīng)該將句子中的各種描述性短語也嵌入空間。然而,以往的視覺語義聯(lián)合嵌入方法通常采用循環(huán)神經(jīng)網(wǎng)絡(luò)模型(如 LSTM(Long short-term memory) 模型)來表示語句。標(biāo)準(zhǔn)的 LSTM 模型有一個(gè)鏈?zhǔn)浇Y(jié)構(gòu)(Chain structure):每一個(gè)單元對應(yīng)一個(gè)單詞,這些單詞按出現(xiàn)順序排成一列,信息從第一個(gè)單詞沿該鏈從前傳到最后,最后一個(gè)節(jié)點(diǎn)包含了所有的信息,往往用于表示整個(gè)句子。顯然,標(biāo)準(zhǔn)的 LSTM 模型只適合表示整個(gè)句子,無法表示一句話中包含的短語,如圖所示。
圖 3 鏈?zhǔn)浇Y(jié)構(gòu)的問題
本文提出一種多模態(tài)、層次化的 LSTM 模型(Hierarchical Multimodal LSTM)。該方法可以將整個(gè)句子、句子中的短語、整幅圖像、及圖像中的顯著區(qū)域同時(shí)嵌入語義空間中,并且自動學(xué)習(xí)出「句子-圖像」及「短語-圖像區(qū)域」間的對應(yīng)關(guān)系。這樣一來,我們生成了一個(gè)更為稠密的語義空間,該空間包含了大量的描述性的短語,進(jìn)而可以對圖像或圖像區(qū)域進(jìn)行更詳細(xì)和生動的描述,如圖所示。
圖 4 本文提出的多模態(tài)層次結(jié)構(gòu)
本文方法的創(chuàng)新性在于提出了一個(gè)層次化的 LSTM 模型,根節(jié)點(diǎn)對應(yīng)整句話或整幅圖像,葉子節(jié)點(diǎn)對應(yīng)單詞,中間節(jié)點(diǎn)對應(yīng)短語或圖象中的區(qū)域。該模型可以對圖像、語句、圖像區(qū)域、短語進(jìn)行聯(lián)合嵌入(Joint embedding),并且通過樹型結(jié)構(gòu)可以充分挖掘和利用短語間的關(guān)系(父子短語關(guān)系)。其具體網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示:
圖 5 網(wǎng)絡(luò)結(jié)構(gòu)
其中為每一個(gè)短語和對應(yīng)的圖像區(qū)域都引入一個(gè)損失函數(shù),用于最小化二者的距離,通過基于結(jié)構(gòu)的反向傳播算法進(jìn)行網(wǎng)絡(luò)參數(shù)學(xué)習(xí)。
在圖像-語句數(shù)據(jù)集上的比較
圖 6 在 Flickr30K 數(shù)據(jù)集上的對比
圖 7 在 MS-COCO 數(shù)據(jù)集上的對比
可見本文方法在幾個(gè)公開數(shù)據(jù)集上都獲得了很好的效果。
我們提供了一個(gè)帶有標(biāo)注的圖像區(qū)域-短語數(shù)據(jù)集 MS-COCO-region,其中人工標(biāo)定了一些顯著性物體,并在這些物體和短語之間建立了聯(lián)系。
圖 8 在 MS-COCO-region 數(shù)據(jù)集上的對比
下圖是我們方法的可視化結(jié)果,可見我們的短語具有很強(qiáng)的描述性。
此外,我們可以學(xué)習(xí)出圖像區(qū)域和短語的對應(yīng)關(guān)系,如下:
更多資訊敬請關(guān)注雷鋒網(wǎng)AI科技評論。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章