0
本文作者: 岑大師 | 2017-11-03 15:11 |
雷鋒網(wǎng)消息:上周在加州山景城舉辦的ACMMM 2017大會上,來自中國的研究者表現(xiàn)出色,不僅拿到了今年ACMMM的最佳論文,還在MSR Video to Language Challenge(MSR-VTT)、Social Media Prediction (SMP)等多項競賽中取得第一。值得一提的是,來自人民大學(xué)的衛(wèi)冕冠軍金琴團(tuán)隊是在去年舉行的第一屆MSR-VTT奪得冠軍后,今年再度取得了主觀人工評測和客觀性能評測的雙冠軍。
MSR Video to Language Challenge (MSR-VTT)是由微軟主辦的視頻標(biāo)注競賽。自2016年來已連續(xù)舉辦兩屆,其任務(wù)為自動地為短視頻生成自然語言視頻內(nèi)容描述,今年共有全球57支隊伍注冊參加。
今年的MSR-VTT挑戰(zhàn)賽要求參賽者根據(jù)所提供的MSR-VTT數(shù)據(jù)集和利用其它數(shù)據(jù),識別廣泛的對象、場景和事件,并開發(fā)從視頻到自然語言的系統(tǒng)。比賽要求系統(tǒng)為每個測試視頻生成至少一個句子,評測階段則分為兩部分,在客觀評測部分將會通過BLEU@4, METEOR, ROUGE-L及CIDEr等多個常用標(biāo)準(zhǔn)來進(jìn)行計算評估,在主觀評測部分將與預(yù)先由人類生成的“答案”進(jìn)行比較,從語法、正確性、相關(guān)性、對盲人的幫助(額外加分項)等四方面進(jìn)行評分。
這對于人類來說是小事一樁的任務(wù),但在計算機(jī)視覺領(lǐng)域,視頻標(biāo)注需要在視頻信息和文本信息兩種不同形式的信息之間進(jìn)行“翻譯”,對計算機(jī)來說算是不小的挑戰(zhàn)。在團(tuán)隊發(fā)表的論文“Knowing yourself: improving video caption via in-depth recap”中,金琴老師對VTT任務(wù)的現(xiàn)狀進(jìn)行了完整的回顧和分析,并創(chuàng)新地提出了基于隱含主題指導(dǎo)的視頻內(nèi)容描述生成模型,并根據(jù)視頻的不同分類,通過融合(Ensemble)和排序(Reranking)等方法綜合描述模型,在MSR-VTT數(shù)據(jù)集上取得了優(yōu)秀的效果,并對模型的通用泛化能力和“距離人類水準(zhǔn)的距離”進(jìn)行了分析,為今后該任務(wù)的發(fā)展和需要解決的重點問題提供了方向,該論文也獲得了Best Grand Challenge Paper Award。
在大會結(jié)束后,雷鋒網(wǎng)也聯(lián)系了金琴老師就本次奪冠的經(jīng)驗進(jìn)行了分享。
雷鋒網(wǎng)(以下用Q代表):恭喜你們蟬聯(lián)ACMMM MSR Video to Language Grand Challenge的冠軍,有什么感想可以分享一下呢?
金琴(以下用A代表):謝謝!感謝ACM Multimedia和MSR組織這樣的公共挑戰(zhàn)賽,為促進(jìn)Video to Language的研究提供了很好的數(shù)據(jù)和評測平臺。很開心我們蟬聯(lián)該項Grand Challenge的冠軍,一份耕耘一份收獲,這是對我們團(tuán)隊扎實做研究的獎勵。我希望大家繼續(xù)保持對研究的激情和嚴(yán)謹(jǐn),持續(xù)做出更好的研究發(fā)現(xiàn)。
Q:可以介紹奪冠團(tuán)隊中的幾位成員以及大家的工作情況嗎?
A: 這次參賽隊伍主要成員包括陳師哲和陳佳。陳師哲是我的博士生,現(xiàn)在剛進(jìn)入博士三年級。陳佳目前在卡內(nèi)基梅隆大學(xué)Alex Hauptmann教授課題組做博士后,我們有多年的合作。
Q:今年的比賽任務(wù)和去年相比有什么不同,存在哪些難點?
A: 今年延用了去年的訓(xùn)練數(shù)據(jù)集,但是測試數(shù)據(jù)集是重新采集的,比去年的測試集更大。在去年的任務(wù)中,訓(xùn)練集和測試集中有些視頻片段是節(jié)選自同一個長視頻,而今年新的測試集和訓(xùn)練集完全沒有任何交集,類似于跨數(shù)據(jù)集去驗證caption系統(tǒng)了,因此對模型generalization的要求更高。
Q:針對上述不同,您的團(tuán)隊今年做了哪些針對性的調(diào)整?解決問題的具體步驟是什么樣的呢?
A: 我們主要從三個方面提高模型的泛化能力:第一個是訓(xùn)練數(shù)據(jù)的擴(kuò)充。模型見過的訓(xùn)練數(shù)據(jù)越多,性能也會隨之提升。但由于video caption數(shù)據(jù)的標(biāo)注代價很高,現(xiàn)在并沒有很大規(guī)模的video caption數(shù)據(jù)集,我們只補(bǔ)充了msvd和trecvid兩個數(shù)據(jù)集,視頻數(shù)量大約是原有訓(xùn)練數(shù)據(jù)的三分之一。第二個是新模型的提出(topic-guided caption model)?;ヂ?lián)網(wǎng)上視頻涵蓋了各種各樣不同的主題內(nèi)容,這種主題的多樣性會影響視頻內(nèi)容描述的生成。一方面不同主題下視頻中不同模態(tài)的貢獻(xiàn)度不一樣,例如音樂類視頻中音頻信號比較關(guān)鍵而在運(yùn)動類視頻中視覺動作更為重要,另一方面在不同主題下使用的詞匯和表達(dá)方式會不一樣,因此不能用同一模型刻畫出句子的多樣性。因此,我們提出了基于隱含主題指導(dǎo)的caption模型,隱含主題是因為數(shù)據(jù)集中并沒有視頻的主題信息,需要自動地去挖掘視頻主題,這個模型可以生成主題相關(guān)的更加準(zhǔn)確更加細(xì)節(jié)的視頻描述,同時泛化性能也大大提高。最后一個改進(jìn)是對不同模型的融合,我們發(fā)現(xiàn)并沒有一個one king to rule them all的模型,不同模型在不同視頻上還是有互補(bǔ)性的,因此我們利用wisdom of the crowd,提出了主題敏感的ensembling和reranking方法來融合不同模型,提高整體系統(tǒng)的穩(wěn)定性和效果。
Q:在參賽中你們還遇到了什么問題,如何解決的?
A: 在現(xiàn)有的caption相關(guān)論文中大家往往使用的不是同一個數(shù)據(jù)集或者相同特征,因此沒有在同樣的一個大數(shù)據(jù)集上,不同caption模型以及不同特征的公平比較。對于caption而言,到底是更強(qiáng)的特征還是更強(qiáng)的模型更重要,沒有答案。所以我們嘗試了現(xiàn)有的很多模型,在一個公平的比較方式上衡量不同模型性能,然后我們發(fā)現(xiàn)很多模型在特征變強(qiáng)了以后提升就小了,甚至有些沒有提升。這也對現(xiàn)有研究提出了一個挑戰(zhàn),就是要在一個更強(qiáng)的baseline上去改進(jìn)模型,像模型和特征的一個互相博弈過程。
Q:目前該領(lǐng)域中最厲害的方法與人類有多大的差距?下一步的有哪些研究重點?
A:在msrvtt數(shù)據(jù)集上我們試著回答了一下這個問題。我們用人工的描述ground truth估計了人類的caption平均性能。在caption任務(wù)的幾個客觀評價指標(biāo)上,我們的系統(tǒng)和人類平均水平基本持平,有些指標(biāo)上高于人類,有些指標(biāo)上與人類相差不多。但這并不意味著我們攻克這個任務(wù)了。一方面,現(xiàn)有的評價指標(biāo)還不能很好衡量句子的質(zhì)量,說一句general但沒有太多信息量的話評測會高,另一個重要方面就是模型的泛化性能和人的差距較大。因此,下一步會針對提高caption模型的泛化能力、表達(dá)能力(生成更細(xì)節(jié)更生動的描述)等方面進(jìn)行研究突破。
Q:你們團(tuán)隊在大會第一天的Audio/Visual Emotion Challenge and Workshop(AVEC 2017)中也奪得了Affect Sub-Challenge的冠軍,你們在這兩個比賽中使用了哪些相同的方法和技巧嗎?
A: 這是兩個很不同的任務(wù),每個任務(wù)要做到好的performance都必須針對任務(wù)提出好的解決方法。但有一些基本的模型還是可以通用的,例如時序模型LSTM在兩個任務(wù)中都很重要,另外有些思路兩個任務(wù)都可以互相借鑒,比如多任務(wù)學(xué)習(xí)等。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。