0
本文作者: 楊曉凡 | 編輯:郭奕欣 | 2018-05-07 12:06 | 專題:ICLR 2018 |
雷鋒網(wǎng) AI 科技評(píng)論按:時(shí)間過(guò)得好快,Yann LeCun 仿佛剛剛在 Twitter 上感慨 ICLR 2018 的參會(huì)人數(shù)比 2017 年再次翻倍,而現(xiàn)在 ICLR 2018 已經(jīng)于加拿大當(dāng)?shù)貢r(shí)間 5 月 3 日結(jié)束了。
谷歌、DeepMind、Facebook、OpenAI、微軟,這 5 個(gè)雷鋒網(wǎng) AI 科技評(píng)論重點(diǎn)關(guān)注的科技公司在今年 ICLR 中共貢獻(xiàn)了 9 篇 oral(口頭報(bào)告)論文和 107 篇 poster(海報(bào)展示)論文,在會(huì)議接受論文總數(shù)的 23 篇 oral、314 篇 poster 中已經(jīng)占據(jù)了接近半壁江山。(谷歌、FB、微軟重點(diǎn)在于其中的人工智能研究機(jī)構(gòu):谷歌大腦/谷歌 AI,F(xiàn)acebook 人工智能研究院,微軟研究院)
每家機(jī)構(gòu)的數(shù)量方面,DeepMind 22 篇、谷歌 47 篇、Facebook 25 篇、OpenAI 7 篇、微軟 15 篇。谷歌和 DeepMind 加起來(lái)就占了會(huì)議總接收論文的 20%,可以說(shuō)是具有絕對(duì)的影響力了。
我們翻閱了這 5 家機(jī)構(gòu)的共 116 篇 ICLR 2018 接受論文,嘗試梳理其中體現(xiàn)出的整個(gè)領(lǐng)域近期的研究?jī)?nèi)容和研究風(fēng)格要點(diǎn)。需要說(shuō)明的是,接受論文的結(jié)果是研究機(jī)構(gòu)的論文作者們和會(huì)議審稿人們共同決定的;另一方面我們翻閱的論文也只是全部 ICLR 2018 接受論文的一部分,所以依據(jù)這些論文做出的評(píng)判不一定全面。
我們發(fā)現(xiàn):
強(qiáng)化學(xué)習(xí)是今年一大研究熱點(diǎn)
不僅 DeepMind 依舊把強(qiáng)化學(xué)習(xí)作為重要研究對(duì)象,其它研究機(jī)構(gòu)也在強(qiáng)化學(xué)習(xí)方面有許多研究,以及把強(qiáng)化學(xué)習(xí)作為工具,研究其它領(lǐng)域的問(wèn)題。這 106 篇論文中有 20 篇左右是關(guān)于強(qiáng)化學(xué)習(xí)的。去年火熱的 GANs 今年則熱度有所下降。
另一方面,與語(yǔ)言相關(guān)的論文也有 22 篇之多,涵蓋的內(nèi)容包括對(duì)語(yǔ)言演進(jìn)的探索、弱監(jiān)督/無(wú)監(jiān)督翻譯、閱讀理解、問(wèn)答等。
必不可少的是對(duì)各種現(xiàn)有方法的深度探究并做出改進(jìn)
來(lái)自谷歌的 oral 論文《Boosting the Actor with Dual Critic》(https://openreview.net/pdf?id=BkUp6GZRW)基于大家熟悉的 actor-critic 模式算法繼續(xù)做出了改進(jìn);
同樣來(lái)自谷歌的《On the Convergence of Adam and Beyond》(https://openreview.net/forum?id=ryQu7f-RZ )比較了 Adam 等常用優(yōu)化算法,發(fā)現(xiàn)其中存在的問(wèn)題并提出改進(jìn)。這篇論文也獲得了今年的最佳論文獎(jiǎng)。
《Sensitivity and Generalization in Neural Networks: An Empirical Study》(https://openreview.net/pdf?id=HJC2SzZCW ) 實(shí)際使用中人們發(fā)現(xiàn)大規(guī)模的、參數(shù)數(shù)目過(guò)多的網(wǎng)絡(luò)實(shí)際上比小規(guī)模的網(wǎng)絡(luò)有更好的泛化性,這似乎和我們對(duì)函數(shù)復(fù)雜度的經(jīng)典認(rèn)知相悖。這篇論文就探究了這個(gè)問(wèn)題。
來(lái)自 Facebook 的《Residual Connections Encourage Iterative Inference》(https://arxiv.org/abs/1710.04773)分析+實(shí)證地研究了 ResNet 能夠帶來(lái)良好表現(xiàn)的原因,以及如何避免某些使用方式下會(huì)出現(xiàn)的過(guò)擬合問(wèn)題。
除了針對(duì)深度學(xué)習(xí)領(lǐng)域本身的已有問(wèn)題做深入發(fā)掘之外,有越來(lái)越多論文以深度學(xué)習(xí)為工具,研究和驗(yàn)證人類學(xué)習(xí)、人類語(yǔ)言演進(jìn)等方面的假說(shuō)。
DeepMind 這篇 oral 論文《Emergence of linguistic communication from referential games with symbolic and pixel input》(https://openreview.net/pdf?id=HJGv1Z-AW ),在像素構(gòu)成的環(huán)境中訓(xùn)練強(qiáng)化學(xué)習(xí)智能體,用語(yǔ)言進(jìn)化學(xué)的思路,以緊急狀況溝通任務(wù)為環(huán)境,研究算法交流模式的進(jìn)化和學(xué)習(xí)。
同樣來(lái)自 DeepMind 的《Compositional obverter communication learning from raw visual input》(https://openreview.net/forum?id=Hk6WhagRW )和《Emergent communication through negotiation》(https://openreview.net/forum?id=Hk6WhagRW )兩篇也是類似地以深度學(xué)習(xí)方法研究人類語(yǔ)言的演進(jìn)。
Facebook 也以另一種思路探究了智能體學(xué)習(xí)語(yǔ)言的方式,在《Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent》(https://arxiv.org/abs/1711.07950),他們提出了有趣的 Mechanical Turker Descent 的交互式學(xué)習(xí)方法,讓眾包參與實(shí)驗(yàn)的人類在競(jìng)爭(zhēng)和合作中訓(xùn)練智能體處理文字探險(xiǎn)游戲中的自然語(yǔ)言內(nèi)容,交互式的學(xué)習(xí)也給智能體提供了動(dòng)態(tài)變化的、符合它們當(dāng)前水平的訓(xùn)練數(shù)據(jù)。
另一篇來(lái)自 Facebook 的《Emergent Translation in Multi-Agent Communication》(https://arxiv.org/abs/1710.06922)研究的是當(dāng)下熱門的無(wú)平行語(yǔ)料的翻譯問(wèn)題,他們的環(huán)境設(shè)置是讓兩個(gè)說(shuō)不同語(yǔ)言的智能體玩挑圖游戲,在游戲過(guò)程中學(xué)習(xí)翻譯對(duì)方的語(yǔ)言。這種設(shè)置不僅和直接學(xué)習(xí)一個(gè)無(wú)監(jiān)督的翻譯器不同,而且還更像是在研究許多人都困惑已久的「兩個(gè)語(yǔ)言不通的人如何溝通」、「最早學(xué)習(xí)某種外語(yǔ)的人是如何學(xué)習(xí)的」這種問(wèn)題。
邏輯、抽象概念學(xué)習(xí)也出現(xiàn)越來(lái)越多的成果
DeepMind 《SCAN: Learning hierarchical compositional visual concepts》(https://arxiv.org/abs/1707.03389 ),雷鋒網(wǎng) AI 科技評(píng)論做過(guò)解讀 DeepMind提出SCAN:僅需五對(duì)樣本,學(xué)會(huì)新的視覺(jué)概念!。
另一篇《Can neural networks understand logical entailment?》(https://openreview.net/forum?id=SkZxCk-0Z)針對(duì)模型捕捉、運(yùn)用邏輯表達(dá)式的能力提出了新的模型和數(shù)據(jù)集
優(yōu)化方法仍在討論和快速進(jìn)步
即便在大數(shù)據(jù)和計(jì)算能力已經(jīng)不是問(wèn)題的今天,模型的優(yōu)化方法也仍然是很多研究者關(guān)心的課題,谷歌尤其在這方面有多篇論文。降低分布式訓(xùn)練的帶寬需求《Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training》(https://arxiv.org/abs/1712.01887)、Hinton 的分布式在線蒸餾《Large Scale Distributed Neural Network Training Through Online Distillation》(https://arxiv.org/abs/1804.03235,雷鋒網(wǎng) AI 科技評(píng)論解讀文章見(jiàn)這里)、學(xué)習(xí)率和批大小之間的關(guān)系如何《Don't Decay the Learning Rate, Increase the Batch Size》(https://arxiv.org/abs/1711.00489)、新提出的優(yōu)化算法《Neumann Optimizer: A Practical Optimization Algorithm for Deep Neural Networks》(https://arxiv.org/abs/1712.03298),以及前文提到過(guò)的《On the Convergence of Adam and Beyond》,都展現(xiàn)了谷歌的研究人員們對(duì)這類問(wèn)題的重視。
微軟的 oral 論文《On the insufficiency of existing momentum schemes for Stochastic Optimization》(https://arxiv.org/abs/1803.05591)探究了現(xiàn)有帶動(dòng)量的隨機(jī)優(yōu)化算法的問(wèn)題,《Training GANs with Optimism》(https://arxiv.org/abs/1711.00141)則為訓(xùn)練 Wasserstein GANs 帶來(lái)了新的方法。
實(shí)際上,百度也有一篇論文《Mixed Precision Training》(https://arxiv.org/abs/1710.03740)討論了在網(wǎng)絡(luò)訓(xùn)練中使用半精度浮點(diǎn)數(shù)而不是一般的單精度浮點(diǎn)數(shù),在縮減超大規(guī)模網(wǎng)絡(luò)所需存儲(chǔ)和計(jì)算需求的同時(shí)還保持足夠的網(wǎng)絡(luò)表現(xiàn)。
嘗試開(kāi)拓深度學(xué)習(xí)的新領(lǐng)域
來(lái)自微軟的《Deep Complex Networks》(https://arxiv.org/abs/1705.09792)為復(fù)數(shù)值的深度神經(jīng)網(wǎng)絡(luò)提供了更多基礎(chǔ)組件,包括復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)的復(fù)數(shù)批量標(biāo)準(zhǔn)化、復(fù)數(shù)權(quán)值初始化策略等。
來(lái)自谷歌的《Graph Attention Networks》(https://arxiv.org/abs/1710.10903)提出了運(yùn)行在圖結(jié)構(gòu)的數(shù)據(jù)上的新的神經(jīng)網(wǎng)絡(luò)架構(gòu) GAT,它同時(shí)還具有掩蔽自我注意力層,以改善以往的基于圖卷積及其近似的模型的缺點(diǎn)。
另外值得一提的是,三篇 ICLR 2018 最佳論文中的《Spherical CNNs》(https://openreview.net/forum?id=Hkbd5xZRb)也是開(kāi)拓新領(lǐng)域的精彩的嘗試。
有不少研究安全的論文,但方向較為集中
來(lái)自谷歌 Nicolas Papernot 等人的《Scalable Private Learning with PATE》繼續(xù)研究了深度學(xué)習(xí)中的隱私問(wèn)題(https://openreview.net/pdf?id=rkZB1XbRZ ),實(shí)際上 Nicolas Papernot 去年就作為第一作者以《Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data》提出了 PATE 框架獲得了 ICLR 2017 的最佳論文獎(jiǎng),雷鋒網(wǎng) AI 科技評(píng)論也翻譯了獲獎(jiǎng)演講,詳見(jiàn) ICLR-17最佳論文作者Nicolas Papernot現(xiàn)場(chǎng)演講:如何用PATE框架有效保護(hù)隱私訓(xùn)練數(shù)據(jù)?
除此之外的研究安全性的論文基本都是對(duì)抗性樣本、超出原分布的樣本的檢測(cè)和防御。
各位讀者如果有認(rèn)為出彩的、值得注意的論文,也歡迎在評(píng)論區(qū)留言補(bǔ)充討論。今年 ICLR 2018 的會(huì)議投遞情況和最佳論文介紹還可以參見(jiàn)這里和這里。明年 ICLR 2019 我們不見(jiàn)不散。
谷歌論文列表:https://research.googleblog.com/2018/04/google-at-iclr-2018.html
DeepMind 論文列表:https://deepmind.com/blog/deepmind-papers-iclr-2018/
Facebook 論文列表:https://research.fb.com/facebook-research-at-iclr-2018/
OpenAI:https://twitter.com/OpenAI/status/989978665113993216
微軟論文檢索:https://www.microsoft.com/en-us/research/search/?q&content-type=publications&research_area=13556
雷鋒網(wǎng) AI 科技評(píng)論報(bào)道
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。
本專題其他文章