丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給camel
發(fā)送

0

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

本文作者: camel 2020-03-16 17:03
導(dǎo)語(yǔ):CVPR 2020 系列論文解讀

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

本文介紹的是CVPR 2020上錄用為Oral的論文《?Say As You Wish: Fine-grained Control of Image Caption Generation with Abstract Scene Graph》(已開源),文章作者是中國(guó)人民大學(xué)博士生陳師哲同學(xué),這項(xiàng)工作是陳師哲同學(xué)在澳大利亞阿德萊德大學(xué)吳琦老師組訪問時(shí)所完成。

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

論文鏈接:https://arxiv.org/abs/2003.00387

代碼鏈接:https://github.com/cshizhe/asg2cap

 

一. 動(dòng)機(jī)

?圖像描述生成(Image Captioning)是一個(gè)復(fù)雜的問題,需要機(jī)器掌握多種計(jì)算機(jī)視覺語(yǔ)義識(shí)別技術(shù),例如物體識(shí)別、場(chǎng)景識(shí)別、屬性和關(guān)系檢測(cè)等等,同時(shí)還需要將所有檢測(cè)的結(jié)果總結(jié)為一個(gè)自然語(yǔ)言表述的句子。隨著深度學(xué)習(xí)技術(shù)的迅速發(fā)展,近期圖像描述生成模型取得了相當(dāng)大的進(jìn)展,甚至在某些準(zhǔn)確度相關(guān)指標(biāo)上超過了人類撰寫的文本描述。

 

盡管現(xiàn)有模型可以生成較為流利和視覺相關(guān)的圖像描述,但卻存在著與用戶交互性差、多樣性低等問題。一方面,大多數(shù)圖像描述模型僅被動(dòng)地生成句子,并不考慮用戶感興趣的內(nèi)容或者期望描述的詳細(xì)程度。例如,在圖1中,如果用戶希望了解關(guān)于花朵的詳細(xì)信息,我們可以很快地為其說出花的顏色、數(shù)量等,但是現(xiàn)有系統(tǒng)卻無(wú)法滿足用戶這一簡(jiǎn)單需求。另一方面,這種被動(dòng)生成模式容易造成句子缺乏多樣性,傾向于使用常見的高頻表達(dá)生成較為“安全”的句子,較為簡(jiǎn)單空洞,且缺乏關(guān)鍵性的、用戶所需的細(xì)節(jié)信息。

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

圖1:意圖無(wú)關(guān)與細(xì)粒度可控的圖像描述對(duì)比。意圖無(wú)關(guān)的圖像描述不能生成用戶想要描述的內(nèi)容且缺乏多樣性,而所提出的細(xì)粒度可控圖像描述模型可根據(jù)用戶意圖生成可控的、多樣化的圖像內(nèi)容描述。

 

為了解決上述問題,少數(shù)工作提出了主動(dòng)控制圖像描述生成,主要可以分為風(fēng)格控制和內(nèi)容控制兩類。風(fēng)格控制是指生成不同風(fēng)格的圖像文本描述,例如幽默、浪漫等等,而內(nèi)容控制則旨在控制描述的圖像內(nèi)容,例如指定圖片的不同區(qū)域、不同物體,從而使得模型能夠描述用戶感興趣的圖片內(nèi)容。但是,現(xiàn)有工作都僅提供非常粗粒度的控制信號(hào),例如一個(gè)類別標(biāo)簽或者圖像區(qū)域。這些控制信號(hào)無(wú)法在更細(xì)粒度的級(jí)別上控制圖像描述的生成,例如,是否需要生成物體的屬性,要生成多少屬性標(biāo)簽;是否需要描述與目標(biāo)物體相關(guān)的物體,以及物體之間的關(guān)系是什么;句子的描述順序應(yīng)該如何等等。

 

我們認(rèn)為,一個(gè)真正有用以及好用的圖像描述生成模型,應(yīng)該是可控的,因此,我們提出了一種更加細(xì)粒度的控制信號(hào),稱為抽象場(chǎng)景圖(Abstract Scene Graph, ASG),可以通過圖結(jié)構(gòu)同時(shí)控制所希望表達(dá)的物體、屬性和關(guān)系,不僅能反映用戶細(xì)粒度的描述意圖,也能生成更具有多樣性的圖像描述。如圖1所示,ASG是一個(gè)包含三類抽象節(jié)點(diǎn)的有向圖,這三類抽象節(jié)點(diǎn)分別代表用戶希望描述的物體(object)、屬性(attribute)和關(guān)系(relationship),每個(gè)抽象節(jié)點(diǎn)在圖中有具體區(qū)域的定位,但卻不需要任何具體語(yǔ)義標(biāo)簽。因?yàn)锳SG不需要任何語(yǔ)義識(shí)別,它可以方便地由用戶限定或自動(dòng)生成。

 

為了基于指定ASG生成圖像描述,我們提出了ASG2Caption模型,和普通用于圖像描述生成的編碼器-解碼器框架相比,能夠解決ASG控制圖像描述生成中的三個(gè)主要挑戰(zhàn)。

第一,因ASG僅包含抽象的場(chǎng)景框架,無(wú)任何語(yǔ)義標(biāo)簽,所以進(jìn)行編碼時(shí)既要考慮圖中所表達(dá)的用戶意圖,又要識(shí)別圖中節(jié)點(diǎn)的語(yǔ)義。因此,我們提出角色感知的圖編碼器,以區(qū)分不同節(jié)點(diǎn)的細(xì)粒度意圖,并利用圖中上下文信息增加每個(gè)節(jié)點(diǎn)的語(yǔ)義識(shí)別能力。

第二,ASG不僅可以通過節(jié)點(diǎn)控制需要描述的圖片內(nèi)容,同時(shí)也通過節(jié)點(diǎn)之間連接的方式隱含地控制了描述的結(jié)構(gòu)順序。因此,我們提出的解碼器使用基于圖注意力機(jī)制分別考慮節(jié)點(diǎn)的語(yǔ)義內(nèi)容和連接結(jié)構(gòu),使得模型可以基于圖流動(dòng)順序描述指定的節(jié)點(diǎn)內(nèi)容。

最后,生成的圖像描述需要完全覆蓋ASG中指定節(jié)點(diǎn),不能有節(jié)點(diǎn)內(nèi)容的缺失或重復(fù)。為此,我們?cè)诮獯a過程中逐漸更新編碼的圖表示,以記錄跟蹤圖中不同節(jié)點(diǎn)的訪問狀態(tài)。

 

本文的主要貢獻(xiàn)包括以下三點(diǎn):

1. 本文首次提出ASG抽象場(chǎng)景圖以細(xì)粒度地控制圖像描述生成。ASG可以控制圖像描述生成中的不同細(xì)節(jié),例如描述什么物體,是否描述物體的屬性,以及物體之間的關(guān)系等。

2.  所提出的ASG2Caption模型由角色感知圖編碼器和基于圖的語(yǔ)言解碼器構(gòu)成,能夠自動(dòng)識(shí)別ASG中的抽象節(jié)點(diǎn),并根據(jù)圖中指定的語(yǔ)義內(nèi)容和描述順序生成所需的圖像描述。

3. 由于缺乏具有ASG標(biāo)注的數(shù)據(jù)集,我們基于已有圖像描述數(shù)據(jù)集VisualGenome 和 MSCOCO自動(dòng)構(gòu)建ASG標(biāo)簽進(jìn)行訓(xùn)練和測(cè)試。我們的模型在這兩個(gè)數(shù)據(jù)集上都取得了更好的控制性。此外,模型可基于多樣化的ASG生成更具有多樣性的圖像描述。

 

二. 方法

 

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

圖2. 細(xì)粒度可控圖像描述ASG2Caption模型框架圖。

 

1. 抽象場(chǎng)景圖 (Abstract Scene Graph, ASG)

為了細(xì)粒度地表達(dá)用戶意圖,我們提出抽象場(chǎng)景圖概念(Abstract Scene Graph, ASG)作為控制信號(hào),以生成自定義的圖像描述。

如圖2左上方所示,ASG中的節(jié)點(diǎn)根據(jù)意圖角色可分為三類:物體節(jié)點(diǎn)(object node),屬性節(jié)點(diǎn)(attribute node)和關(guān)系節(jié)點(diǎn) (relationship node)。

如果用戶對(duì)物體o感興趣,則可將o在圖像的區(qū)域添加到ASG中作為物體節(jié)點(diǎn);如果用戶希望了解關(guān)于物體o的更多細(xì)節(jié)信息,可以為其添加不同數(shù)目的屬性節(jié)點(diǎn)a,并建立a與o之間的有向邊;如果用戶希望描述兩個(gè)物體之間的關(guān)系,可在物體間添加一個(gè)關(guān)系節(jié)點(diǎn)r,并建立從關(guān)系的主語(yǔ)物體指向r和r指向關(guān)系的賓語(yǔ)物體的兩條邊。

 

由于ASG不需要任何語(yǔ)義標(biāo)簽,我們僅需要使用預(yù)訓(xùn)練的object proposal generator,以及一個(gè)簡(jiǎn)單的判斷物體間是否存在關(guān)系的二分類器, 就可自動(dòng)地生成不同的ASG。同時(shí),用戶也可以方便地構(gòu)建抽象場(chǎng)景圖ASG,用戶不需要繁瑣地構(gòu)建完整的ASG,僅需像前人工作一樣指定關(guān)注的物體或者想描述的詳細(xì)程度等,我們可通過算法根據(jù)用戶需求自動(dòng)生成完整的ASG用于控制,從而具有良好的用戶交互性。

 

 

2. ASG2Caption模型

給定圖像和指定的ASG,模型目標(biāo)是生成流利的文本描述,使其嚴(yán)格按照ASG的控制以滿足用戶的意圖。該模型整體框架如圖 2所示,包括角色感知圖編碼器和基于圖的語(yǔ)言解碼器。

 

2.1角色感知圖編碼器:用于對(duì)圖像和場(chǎng)景抽象圖ASG 編碼。

(1) 角色感知向量。

由于節(jié)點(diǎn)除需要刻畫其在圖像中對(duì)應(yīng)的視覺特征外,還應(yīng)反映出它的意圖角色。這由于對(duì)于區(qū)分具有相同圖像區(qū)域的節(jié)點(diǎn)來說至關(guān)重要,例如對(duì)應(yīng)于同一區(qū)域的物體節(jié)點(diǎn)和屬性節(jié)點(diǎn)。因此,我們提出使用角色感知向量增強(qiáng)節(jié)點(diǎn)表征,得到意圖角色相關(guān)的節(jié)點(diǎn)表示。

(2) 多關(guān)系圖卷積神經(jīng)網(wǎng)絡(luò)。

由于ASG中的節(jié)點(diǎn)不是孤立的,相鄰節(jié)點(diǎn)的上下文信息有益于理解節(jié)點(diǎn)的語(yǔ)義和角色信息。盡管ASG中的邊是單向的,但節(jié)點(diǎn)之間的影響卻是相互的。此外,由于節(jié)點(diǎn)的類型不同,信息從一種類型節(jié)點(diǎn)傳遞到另一種類型節(jié)點(diǎn)的傳遞方式與其反方向也是不同的。因此,我們將原始ASG的邊擴(kuò)展為不同的雙向邊,從而生成一個(gè)具有多關(guān)系的圖,利用多關(guān)系圖卷積神經(jīng)網(wǎng)絡(luò)(MR-GCN)進(jìn)行圖中上下文編碼。。

 

2.2 基于圖的語(yǔ)言解碼器: 旨在將編碼的圖轉(zhuǎn)換為圖像文本描述。

(1) 圖注意力機(jī)制。

與之前基于獨(dú)立的圖像向量集合進(jìn)行解碼不同,編碼的圖不僅包括節(jié)點(diǎn)特征表示,還具有圖中結(jié)構(gòu)化的連接關(guān)系。其中,節(jié)點(diǎn)的連接方式反映了用戶所希望的描述順序,不能夠被解碼器所忽略。例如,如果當(dāng)前關(guān)注的節(jié)點(diǎn)為關(guān)系節(jié)點(diǎn),那么根據(jù)圖的流向,下一個(gè)需要訪問的節(jié)點(diǎn)很可能是連接該關(guān)系節(jié)點(diǎn)的賓語(yǔ)物體節(jié)點(diǎn)。

為了同時(shí)考慮圖中語(yǔ)義內(nèi)容和圖結(jié)構(gòu)信息,我們結(jié)合了兩種不同的注意力機(jī)制,分別稱為圖語(yǔ)義注意力和圖流向注意力。圖語(yǔ)義注意力考慮查詢向量與圖編碼向量之間的語(yǔ)義相關(guān)性;圖流向注意力用于刻畫圖中的結(jié)構(gòu)流向信息,如圖3所示。最后,圖注意力機(jī)制動(dòng)態(tài)地融合了圖語(yǔ)義注意力和圖流向注意力。

 

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

圖3. 圖流向注意力機(jī)制考慮圖結(jié)構(gòu)信息對(duì)圖像描述生成的影響。

 

 (2) 圖更新機(jī)制。

為滿足用戶的意圖需求,ASG中所有節(jié)點(diǎn)都應(yīng)被文本描述所表達(dá),不能出現(xiàn)缺失或者重復(fù)的現(xiàn)象。因此,為了提高從編碼圖到句子描述的質(zhì)量,我們提出了一個(gè)動(dòng)態(tài)記錄圖節(jié)點(diǎn)訪問狀態(tài)的圖更新機(jī)制。在每個(gè)解碼步,我們先將已表達(dá)過的ASG中的節(jié)點(diǎn)進(jìn)行動(dòng)態(tài)擦除,如果一個(gè)節(jié)點(diǎn)并不需要再表達(dá),則可置為0;然后動(dòng)態(tài)寫入新的節(jié)點(diǎn)信息,更新圖中節(jié)點(diǎn)的特征表示,以記錄不同節(jié)點(diǎn)的訪問狀態(tài)。

 

三. 實(shí)驗(yàn)

 

我們基于兩個(gè)廣泛使用的圖像描述數(shù)據(jù)集VisualGenome和 MSCOCO的標(biāo)注,自動(dòng)構(gòu)建細(xì)粒度可控模型所需的訓(xùn)練數(shù)據(jù)。其中, MSCOCO數(shù)據(jù)集的ASG比VisualGenome數(shù)據(jù)集更為復(fù)雜,包含更多的關(guān)系節(jié)點(diǎn)和更長(zhǎng)的文本描述。

我們分別從可控性(Controllability)和多樣性(Diversity)兩個(gè)方面評(píng)測(cè)生成的圖像描述質(zhì)量。

 

1. 可控性評(píng)估。

由于細(xì)粒度可控圖像描述生成是一個(gè)新的任務(wù),我們基于現(xiàn)有模型精心設(shè)計(jì)了以下兩類基線模型進(jìn)行比較。第一類為傳統(tǒng)意圖無(wú)關(guān)的圖像描述生成模型,第二類模型將上述模型擴(kuò)展為基于ASG控制的圖像描述生成模型。表1比較了不同模型的結(jié)果。由于控制信號(hào)ASG與標(biāo)注的文本描述對(duì)應(yīng),可控類模型性能明顯由于意圖無(wú)關(guān)的無(wú)控制模型。所提出的ASG2Caption模型在所有的評(píng)價(jià)指標(biāo)上都顯著地超過了基線模型性能,包括整體圖像描述質(zhì)量和ASG結(jié)構(gòu)對(duì)齊性能。尤其對(duì)于細(xì)粒度的屬性控制,我們將屬性對(duì)齊誤差減少了將近一半。圖4為基于用戶生成的ASG控制圖像描述生成的例子。

 

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

表1:不同模型基于ASG的可控圖像描述生成性能對(duì)比。

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

圖4. 模型根據(jù)用戶指定的不同ASG生成的可控圖像文本描述。ASG中細(xì)微的差別(例如邊的方向)也代表了用戶的不同意圖,將使得模型生成不同的圖像描述。

 

2. 多樣性評(píng)估。

基于ASG控制的圖像描述生成的一個(gè)好處是可以基于多樣化的ASG生成不同的圖像描述,以不同層次的細(xì)節(jié)描述不同方面的圖像內(nèi)容。我們與現(xiàn)有多樣性評(píng)測(cè)最佳的方法進(jìn)行比較,結(jié)果見表2,我們模型生成的圖像描述具有更高的多樣性。

圖5展示了為示例圖像自動(dòng)采樣生成的不同ASG及其對(duì)應(yīng)生成的可控圖像描述。

生成的描述有效地按照給定ASG進(jìn)行句子生成,由于ASGs的多樣性使得我們的模型能產(chǎn)生顯著多樣化的圖像文本描述。

 

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

表2. 和現(xiàn)有最佳模型比較多樣化的圖像文本描述生成。

 CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

圖5. 基于自動(dòng)采樣的ASG生成多樣化圖像描述示例

 

3. 消融實(shí)驗(yàn)。

為驗(yàn)證ASG2Caption模型中不同部件的貢獻(xiàn),我們?cè)诒?中提供了大量的消融實(shí)驗(yàn)結(jié)果。所提出的不同模塊均對(duì)性能具有幫助。

 CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

            表3. ASG2Caption模型各組件貢獻(xiàn)的消融實(shí)驗(yàn)。

 

 

第四. 總結(jié)

現(xiàn)有大部分圖像描述工作都是被動(dòng)地生成句子,完全由訓(xùn)練集中數(shù)據(jù)的樣式來決定可能生成的句子的樣式,不能與用戶交互自由控制,而且往往多樣性也很低。因此,在這篇論文中,我們探索了一種細(xì)粒度的控制信號(hào)ASG,用于控制生成的圖像描述應(yīng)該關(guān)注圖像中的哪些物體、關(guān)系、描述的詳細(xì)程度等,并提出ASG2Caption模型基于圖控制生成圖像描述。通過這種細(xì)粒度控制,我們不僅可以實(shí)現(xiàn)更好的交互性、可解釋性,同時(shí)也使得生成的描述更具有多樣性。

文章代碼已開源:https://github.com/cshizhe/asg2cap

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

 CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

CVPR 2020 | 看圖說話之隨心所欲:細(xì)粒度可控的圖像描述自動(dòng)生成

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說