0
本文作者: 楊曉凡 | 2019-03-05 10:08 |
雷鋒網(wǎng) AI 科技評(píng)論按:CMU 博士、UC Santa Barbara 計(jì)算機(jī)科學(xué)系助理教授王威廉(William Wang)是學(xué)術(shù)圈內(nèi)的積極分子,研究領(lǐng)域涵蓋信息提取、社交媒體、語(yǔ)言和視覺(jué)、口語(yǔ)處理、機(jī)器學(xué)習(xí)理論和知識(shí)圖譜等。王威廉也是社交媒體紅人。
王威廉組的學(xué)術(shù)研究非?;钴S,小組內(nèi)常有頂會(huì)論文出現(xiàn)。根據(jù)王威廉微博介紹,他們組有 6 篇論文被自然語(yǔ)言處理頂級(jí)會(huì)議 NAACL 2019 接收,其中甚至包括來(lái)自二年級(jí)本科生同學(xué)的論文。近日隨著 CVPR 2019 發(fā)榜,王威廉組王鑫同學(xué)與微軟研究院的合作文章《Reinforced Cross-Modal Matching & Self-Supervised Imitation Learning for Vision-Language Navigation》也被 CVPR 接收。王威廉表示,“本文是CVPR滿分文章(3個(gè)Strong Accept),在5165篇投稿文章中審稿得分排名第一。今天被程序委員會(huì)和領(lǐng)域主席評(píng)審團(tuán)確定為CVPR口頭報(bào)告論文,我們將在夏天在洛杉磯長(zhǎng)灘市進(jìn)行報(bào)告。”
雷鋒網(wǎng) AI 科技評(píng)論把論文內(nèi)容簡(jiǎn)單介紹如下。
Reinforced Cross-Modal Matching & Self-Supervised Imitation Learning for Vision-Language Navigation
用于視覺(jué)-語(yǔ)言導(dǎo)航的強(qiáng)化跨模態(tài)匹配及自我監(jiān)督模仿學(xué)習(xí)
論文地址:http://arxiv.org/abs/1811.10092
論文簡(jiǎn)介:視覺(jué)-語(yǔ)言導(dǎo)航(Vision-language navigation,VLN)任務(wù)是指在真實(shí)的三維環(huán)境中讓具有實(shí)體的智能體進(jìn)行導(dǎo)航并完成自然語(yǔ)言指令。在這篇論文中,作者們研究了如何解決這個(gè)任務(wù)中的三個(gè)重點(diǎn)挑戰(zhàn):跨模態(tài)參照,糟糕的反饋,以及泛化問(wèn)題。作者們首先提出了一種新的強(qiáng)化跨模態(tài)匹配(RCM)方法,它可以通過(guò)強(qiáng)化學(xué)習(xí)的方式同時(shí)促進(jìn)局部和全局的跨模態(tài)參照。具體來(lái)說(shuō),他們使用了一個(gè)匹配指標(biāo),它成為了鼓勵(lì)模型增強(qiáng)外部指令和運(yùn)動(dòng)軌跡之間匹配的固有反饋;模型也使用了一個(gè)推理導(dǎo)航器,它用來(lái)在局部視覺(jué)場(chǎng)景中執(zhí)行跨模態(tài)參照。在一個(gè) VLN benchmark 數(shù)據(jù)集上進(jìn)行的評(píng)估結(jié)果表明,作者們提出的 RCM 模型大幅超越已有模型,SPL 分?jǐn)?shù)提高了 10%,成為了新的 SOTA。為了提高學(xué)習(xí)到的策略的泛化性,作者們還進(jìn)一步提出了一個(gè)自監(jiān)督模仿學(xué)習(xí)(SIL)方法,通過(guò)模仿自己以往的良好決策的方式探索未曾見(jiàn)過(guò)的環(huán)境。作者們表明了 SIL 可以逼近出更好、更高效的策略,這極大程度減小了智能體在見(jiàn)過(guò)和未見(jiàn)過(guò)的環(huán)境中的成功率表現(xiàn)的差別(從 30.7% 降低到 11.7%)。
由于他們提出的學(xué)習(xí)框架是模塊化的、不依賴模型的,其中的組件未來(lái)都可以繼續(xù)分別作出改進(jìn)。論文中的 ablation study 也表明了每個(gè)組件各自的效果。
論文原文見(jiàn) http://arxiv.org/abs/1811.10092
雷鋒網(wǎng) AI 科技評(píng)論報(bào)道
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。