2
本文作者: AI科技評論 | 2017-12-19 16:12 |
2017年12月3-9日,第31屆神經信息處理系統(tǒng)大會在美國加州長灘市舉行。NIPS(Conference and Workshop on Neural Information Processing Systems)始于1987年,最初是定位為研究探索生物和人工神經網絡的互補性開放跨學科會議。隨著近年來尤其是2012年之后的機器學習的逐步興起,NIPS的關注度與日俱增,成為了人工智能領域參與人數(shù)最多的學術會議之一。今年的NIPS可謂火爆異常,有超過8000人注冊參會,投遞論文數(shù)量3240篇,收錄678篇,錄用率20.9%。而今年NIPS的門票也在開放注冊一小時內售罄,有許多希望感受大會氣氛的同學也因此未能前往現(xiàn)場。
在上個星期的大會期間,雷鋒網為大家進行了大會現(xiàn)場的報道,關于大會的更多干貨內容,我們也將陸續(xù)進行后續(xù)整理放出。近日雷鋒網發(fā)現(xiàn),布朗大學三年級博士生David Abel將自己在NIPS 2017上旁聽的所有演講及有價值的論文等全部整理成了一份43頁的PDF文件,并鼓勵大家進行傳播分享。盡管David無法參加大會所有議程,但在PDF中我們仍然能看到不少有價值的總結。
關于這份PDF中的部分重點內容雷鋒網摘錄如下:
Ali Rahimi“時間檢驗獎”獲獎演講。雷鋒網在此前有詳細報道(參見雷鋒網文章《NIPS 2017 “時間檢驗獎”獲獎感人演講:從“煉金術”到“電力”的機器學習》)。在演講中Rahimi回顧了其十年前頂著“學術警察”對于機器學習這門新學科的質疑前進的過程,并將機器學習比喻為(早期的)“煉金術”,提出經過十年的發(fā)展,機器學習需要從野蠻生長到建立一個完整的體系的過程,并號召大家去為機器學習的理論框架添磚加瓦。值得一提的是,Ali關于機器學習與煉金術的比喻也引發(fā)了一番爭議,參見《“深度學習才不是煉金術”,Yann LeCun為這個和NIPS獲獎論文作者掐起來了》
(Ali Rahimi演講中)
Joelle Pineau關于Deep RL重現(xiàn)性的演講(12月5日,D1房間Demostration)。Joelle Pineau是McGill大學副教授,其演講的中心思想是,假設有兩種不同算法(我們稱之為A和B),這兩種算法可能根據所選擇的隨機種子點在完全相同的任務上取得不同的效果。換言之,如果算法A與某個隨機種子點在統(tǒng)計學上顯著優(yōu)于B算法,而隨著選擇不同的隨機種子點,在下一輪中可能算法B會占據優(yōu)勢。這項研究很有意思,因為在深度RL中,大多數(shù)結果的形式是:“我們的算法在任務X和Y上做得更好”,而Joelle的研究則揭示了這種“更好”的另一面。關于這一現(xiàn)象雷鋒網此前也有討論,參見:《用深度學習每次得到的結果都不一樣,怎么辦?》
Josh Tenenbaum就人類行為的逆向工程智能的Tutorial 分享(12月4日,Hall C,當時雷鋒網正在關注同期進行的Lecun參加的另一個Tutorial)。Josh Tenenbaum是計算認知科學領域的大牛,在本次NIPS大會上,其指導的學生有多篇論文發(fā)表。Josh介紹了對直覺(Common sense)的逆向工程的相關研究,以及利用概率程序為工具,產生世界的下一個狀態(tài)作為一個近似的“頭腦中的游戲引擎”的模型。 這一直觀的物理學和心理學的跨界研究對人工智能如何更好模擬人類行為有著指導性的意義。關于計算認知科學的具體應用,參見我們此前對Josh Tenenbaum的博士后趙一彪創(chuàng)辦的iSee.ai的相關報道:《The Engine公布第一批“改變世界”的被投公司名單 iSee.ai名列其中》
Kate Crawford的Keynote演講:《The Trouble with Bias》(12月5日,Hall A)。Kate是紐約大學教授和微軟紐約研究中心的首席研究員,也是本次大會的顏值擔當(本次NIPS上雷鋒網編輯就遇到了Kate的迷妹要趕去聽Kate的演講和合影)。在演講中,Kate講述機器學習了在高風險決策中存在偏差的原因及在醫(yī)療保健、刑事司法、教育等核心社會機構中的應用,并提出解決這種偏差的新策略。
(Kate Crowford演講中)
除此之外,該份筆記還對大會每一天的亮點內容進行了總結,以及對十余篇論文現(xiàn)場講解的筆記。更多精彩內容,可關注雷鋒網AI科技評論微信公眾號(aitechtalk)回復“NIPS 2017筆記 ”獲取下載鏈接。
此外,為便于更好對照學習,雷鋒網也將這份筆記中提到的演講、論文打包,包括下列20個PDF:
1. Josh Tanenbaum NIPS 2017 Tutorial Slide
2. Safe and Nested Subgame Solving for Imperfect-Information Games
3. Fast Rates for Bandit Optimization with Upper-Confidence Frank-Wolfe
4. Diving into the shallows: a computational perspective on large-scale shallow learning
5. Monte-Carlo Tree Search by Best Arm Identification
6. Deep Mean-Shift Priors for Image Restoration
7. Deep Voice 2: Multi-Speaker Neural Text-to-Speech
8. Graph Matching via Multiplicative Update Algorithm
9. Dynamic Routing Between Capsules
10. Pieter Abbeel NIPS 2017演講Slide
11. ELF: An Extensive, Lightweight and Flexible Research Platform for Real-time Strategy Games
12. Imagination-Augmented Agents for Deep Reinforcement Learning
13. A simple neural network module for relational reasoning
14. Scalable trustregion method for deep reinforcement learning using kronecker-factored approximation
15. Off-policy evaluation for slate recommendation
16. Robust and efficient transfer learning with hidden parameter markov decision processes
17. Inverse reward design
18. Dynamic safe interruptibility for decentralized multi-agent reinforcement learning
19. Repeated inverse reinforcement learning
20. Learning with options that terminate off-policy
加入雷鋒網會員或付費即可下載。
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。