0
本文作者: camel | 2019-11-29 11:12 | 專題:ICCV 2019 |
本文由汽車之家 王磊向雷鋒網(wǎng)AI科技評論投稿,未經(jīng)允許禁止轉(zhuǎn)載。
作者 | 王磊
本文介紹了汽車之家團(tuán)隊(duì)在ICCV 2019一篇關(guān)于視頻理解論文相關(guān)的工作。針對視頻多標(biāo)簽分類的問題,論文提出了將視頻多標(biāo)簽之間相關(guān)性特征加入到網(wǎng)絡(luò)之中,結(jié)果證明該方法可以顯著的提高視頻多標(biāo)簽分類效果。
隨著視頻應(yīng)用的不斷普及,視頻內(nèi)容理解與分析成為計(jì)算機(jī)視覺領(lǐng)域的一個(gè)熱門研究方向。2017年,Google開源了其大規(guī)模視頻內(nèi)容數(shù)據(jù)集Youtube8M,鼓勵(lì)研究者通過該數(shù)據(jù)集利用深度學(xué)習(xí)技術(shù)進(jìn)行視頻理解的研究。
最新的Youtube-8M數(shù)據(jù)集包括兩部分,第一部分為video-level(視頻層級)的標(biāo)注,該部分總計(jì)包含610萬個(gè)已標(biāo)注的視頻,3862個(gè)分類,平均每個(gè)視頻標(biāo)注了3個(gè)標(biāo)簽;第二部分為segment-level(視頻片段標(biāo)注),該部分挑選了1000個(gè)分類,對視頻中隨機(jī)抽取的5秒片段進(jìn)行標(biāo)注,該部分總共有23.7萬個(gè)標(biāo)注數(shù)據(jù);值得注意的是,segment-level的數(shù)據(jù)標(biāo)注僅標(biāo)注了抽取的5秒視頻片段是否屬于某一特定標(biāo)簽,并沒有標(biāo)識(shí)該視頻片段的所有標(biāo)簽。
近年來,視頻理解成為計(jì)算機(jī)視覺領(lǐng)域的一個(gè)熱點(diǎn)方向。相比較圖像內(nèi)容,視頻內(nèi)容更為復(fù)雜多樣,因此對于視頻內(nèi)容而言,單個(gè)標(biāo)簽很難完整的表征視頻的內(nèi)容,對于視頻內(nèi)容理解分析大多為多標(biāo)簽的分類問題。
在視頻標(biāo)簽中,很多標(biāo)簽之間會(huì)有一定的相關(guān)性并成對出現(xiàn);如圖一所示(標(biāo)簽從Youtube8M數(shù)據(jù)集中選?。?,當(dāng)寶馬(BMW)、發(fā)動(dòng)機(jī)(Engine)的標(biāo)簽出現(xiàn)時(shí),汽車(Car)的標(biāo)簽大概率也會(huì)出現(xiàn);但是當(dāng)汽車的標(biāo)簽出現(xiàn)時(shí),寶馬標(biāo)簽出現(xiàn)的可能性則非常低。
圖1.標(biāo)簽有向圖示例
通過對Youtube8M數(shù)據(jù)集的部分標(biāo)簽數(shù)據(jù)進(jìn)行分析,可以得到一個(gè)圖來表征各個(gè)標(biāo)簽之間的關(guān)系,如圖二所示。圖二中每個(gè)不同顏色的節(jié)點(diǎn)代表一個(gè)獨(dú)立的標(biāo)簽類別,不同節(jié)點(diǎn)之間的連線代表著兩個(gè)節(jié)點(diǎn)之間是否有相關(guān)性,節(jié)點(diǎn)之間連線上的數(shù)值則代表了不同的標(biāo)簽之間聯(lián)系的緊密程度,數(shù)值越大,則聯(lián)系越高;沒有聯(lián)系的節(jié)點(diǎn)之間則不會(huì)有線連接。
通過對視頻的多標(biāo)簽之間的相關(guān)性進(jìn)行建模分析,并通過圖神經(jīng)網(wǎng)絡(luò)將標(biāo)簽類別映射為對應(yīng)類別分類器加入到最終的視頻多標(biāo)簽分類網(wǎng)絡(luò)之中,可以提升整體模型的學(xué)習(xí)分類能力。
圖2.標(biāo)簽相關(guān)性Wighted-Graph表示
如何有效獲取目標(biāo)標(biāo)簽之間的相關(guān)性?如何利用這些標(biāo)簽相關(guān)性提升網(wǎng)絡(luò)的特征學(xué)習(xí)以及分類表現(xiàn)?這是視頻多標(biāo)簽分類的兩個(gè)重要問題。由于圖的特點(diǎn)可以很好的表征各個(gè)標(biāo)簽之間的相互依賴性,因此我們選擇基于圖神經(jīng)網(wǎng)絡(luò)進(jìn)行建模學(xué)習(xí),并用于最終視頻分類網(wǎng)絡(luò)中。一個(gè)圖神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)如圖三所示:
圖3.圖神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)
Input輸入有兩個(gè),一個(gè)為特征描述矩陣H(n*d),另一個(gè)為相關(guān)系數(shù)矩陣A(n*n),其中n為節(jié)點(diǎn)個(gè)數(shù),即所有標(biāo)簽的個(gè)數(shù),d為特征的維度,特征維度根據(jù)采用的CNN結(jié)構(gòu)決定。
相關(guān)系數(shù)矩陣是GCN網(wǎng)絡(luò)中表征標(biāo)簽關(guān)系的一個(gè)矩陣,因此如何構(gòu)建相關(guān)系數(shù)矩陣
A 就成了GCN
模型中一個(gè)非常重要的問題。由于Youtube8M數(shù)據(jù)集有超過600萬的video-level的視頻標(biāo)注數(shù)據(jù),因此我們可以通過挖掘標(biāo)簽在數(shù)據(jù)集中的共現(xiàn)情況來初始化相關(guān)系數(shù)矩陣A。 為標(biāo)簽i在數(shù)據(jù)中出現(xiàn)的次數(shù),
為標(biāo)簽i和標(biāo)簽j兩個(gè)標(biāo)簽一起出現(xiàn)的概率,兩者相除便可以得到不同標(biāo)簽之間的條件概率矩陣P。
考慮到標(biāo)注數(shù)據(jù)中可能存在不準(zhǔn)確的情況以及標(biāo)簽在訓(xùn)練和測試集中共現(xiàn)的次數(shù)可能會(huì)相差比較大,因此我們設(shè)置了一個(gè)閾值剔除相關(guān)性比較弱的噪聲的影響。對于上面得到的矩陣P,只有其值大于某特定值(論文中為0.5)的時(shí)候才會(huì)考慮,否則矩陣中這兩個(gè)標(biāo)簽的相關(guān)度會(huì)設(shè)置為0,因此優(yōu)化后的條件概率矩陣如下所示:
Hidden Layer用來學(xué)習(xí)節(jié)點(diǎn)之間的相關(guān)信息并更新節(jié)點(diǎn)表示,每一個(gè)Hidden Layer都可以用一個(gè)非線性函數(shù)表示:
Hidden Layer可以有多層,堆疊多個(gè) GCN 層來對節(jié)點(diǎn)之間交織的復(fù)雜關(guān)系進(jìn)行建模。在本論文中Hidden Layer為兩層,通過訓(xùn)練學(xué)習(xí)便可以得到優(yōu)化后的表征標(biāo)簽相關(guān)性的矩陣Output,并用于幫助視頻標(biāo)簽分類。
最終的完整網(wǎng)絡(luò)結(jié)構(gòu)如圖四所示,我們使用InceptionV3來提取輸入視頻的特征;NeXtVLAD網(wǎng)絡(luò)是第二屆Youtube8M比賽單模型冠軍網(wǎng)絡(luò),該網(wǎng)絡(luò)可以很好的視頻的多維度特征進(jìn)行聚合,并且在降低特征維度的同時(shí)還能很好的保證模型性能;在網(wǎng)絡(luò)的下半部分,我們用一個(gè)雙層的GCN網(wǎng)絡(luò)來幫助進(jìn)行最后的視頻標(biāo)簽分類。最終的對比實(shí)驗(yàn)中,加入GCN后的視頻多標(biāo)簽分類網(wǎng)絡(luò)MAP(Mean-Average-Precision)提高了接近一個(gè)百分點(diǎn),GCN網(wǎng)絡(luò)的加入顯著性顯著的提高了視頻多標(biāo)簽的分類能力;也證明了對于多標(biāo)簽分類任務(wù),通過研究多標(biāo)簽之間的相關(guān)依賴關(guān)系提升網(wǎng)絡(luò)分類能力是一個(gè)很好的方向。
圖四.整體網(wǎng)絡(luò)結(jié)構(gòu)
視頻理解與分析是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)熱門問題,針對視頻的特征提取以及特征聚合全世界的研究已經(jīng)做了大量的工作。本文提出了從多標(biāo)簽相關(guān)性的視角來提升視頻的多標(biāo)簽分類能力并進(jìn)行了有效的實(shí)驗(yàn)驗(yàn)證。通過對視頻的圖像特征、時(shí)序特征、標(biāo)簽相關(guān)性特征進(jìn)行融合的分類網(wǎng)絡(luò)可以很好的增強(qiáng)神經(jīng)網(wǎng)絡(luò)的視頻理解能力。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章