0
本文作者: 周翔 | 2016-12-30 12:17 |
雷鋒網(wǎng)按:2016即將過去,針對機器學習和人工智能領域在2016年取得的重大進展,以及2017年可能出現(xiàn)的新趨勢,外媒KDnuggets咨詢了12位業(yè)內(nèi)頂級專家,匯集了他們的觀點并整理成文,其中AlphaGo戰(zhàn)勝李世石成為今年的標志性事件。雷鋒網(wǎng)對全文進行了編譯,未經(jīng)許可,不得轉(zhuǎn)載。
1. Yaser Abu-Mostafa,加州理工學院顧問
2016和2017年對機器學習來說都是令人興奮的。其中,兩個趨勢正在加速到來。首先,機器學習作為強大的技術正在被越來越多的示例證明。比如最近很成功的AlphaGo,還有非人類加密(inhuman encryption)都是引人注目的例子。其次,機器學習應用的擴張:機器學習正被應用在更復雜的任務以及更多領域中,而且被更多的人作為挖掘數(shù)據(jù)的方式。這也是谷歌、微軟、Facebook、IBM結成AI聯(lián)盟的原因。
2. Xavier Amatriain,Quora工程副總裁
2016年或許可以成為“機器學習大熱”被載入史冊的一年。似乎所有公司都在做機器學習,如果沒有,那么就是想著收購一家初創(chuàng)公司來進入這一領域。
公平地說,說機器學習大熱是有原因的。你能相信距離谷歌宣布開源TensorFlow才剛剛一年嗎?短短一年中,從發(fā)現(xiàn)新藥到作曲,TensorFlow已經(jīng)被廣泛運用于各種項目中。谷歌并不是唯一一家開源他們的機器學習軟件的公司。微軟開源了CNTK,百度宣布推出PaddlePaddle,亞馬遜近期剛剛宣布將會采用MXNet作為AWS的機器學習平臺。Facebook則同時支持兩個深度學習框架:Torch和Caffe。另一方面,谷歌也同時支持目前非常成功的Keras。單從這點來看,谷歌和Facebook算是打平了。
除了大肆宣傳以及各大公司對機器學習開源項目的支持外,2016年還涌現(xiàn)了很多關于機器學習的應用,而這在幾個月之前都很難想象,其中WaveNet語音合成的質(zhì)量讓我印象深刻。過去我也曾經(jīng)處理過類似的問題,所以非常欣賞Wavenet所取得的成果。此外,機器學習在識別唇語方面取得的成果也很突出,而視頻識別的應用預計在不久的將來也會有很多用途,說不定會讓人毛骨悚然。還需要提及的是谷歌在機器翻譯領域取得的重大進展,這一領域在一年內(nèi)取得如此多的進展著實令人驚訝。
事實上,機器翻譯并不是過去一年中機器學習在語言技術領域取得的唯一進展。近期,為了生成更豐富的語言模型,將深度時序網(wǎng)絡與副信息(side-information)結合起來的嘗試也很有意思。在“A Neural Knowledge Language Model”一文中,Bengio的團隊將知識圖譜和RNN(循環(huán)神經(jīng)網(wǎng)絡)結合了起來,在“Contextual LSTM models for Large scale NLP Tasks”論文中,DeepMind將主題并入了LSTM(長短期記憶人工神經(jīng)網(wǎng)絡)模型。此外,在模擬注意力和語言模型記憶方面也有很多有趣的工作。這方面的論文,我比較推薦今年在ICML上發(fā)表的“Ask Me Anything: Dynamic Memory Networks for NLP”。
如果要為2016年的回顧畫上一個句號,那么我不得不提我的專業(yè)領域的一些進展:推薦系統(tǒng)。當然,深度學習也影響了這一領域。雖然我仍然不會推薦將深度學習作為推薦系統(tǒng)的默認方法,有趣的是,深度學習已經(jīng)在推薦系統(tǒng)中被廣泛采用,比如Youtube。不過,在與深度學習無關的領域也有一些很有趣的研究。今年ACM Recsys的最佳論文頒給了“Local Item-Item Models For Top-N Recommendation”,它是對稀疏線性方法的擴展,使用的是初始無監(jiān)督集群。此外,“Field-aware Factorization Machines for CTR Prediction”描述了如何在Criteo CTR Prediction Kaggle挑戰(zhàn)中獲勝方法,這提醒我們,因子分解機(Factorization Machine)仍然是機器學習工具包里的一個有用的工具。
如果要列出過去12個月中機器學習所取得的進展,估計要好幾張紙才能寫完。我甚至還沒提到圖像識別、深度強化學習的突破,以及自動駕駛汽車和圍棋游戲方面的重大進展。更不用說機器學習對社會的負面影響,以及因此引起的對算法的偏見和公平性的討論。
那么,我們對2017年又應該有什么期待呢?這個很難預測,畢竟這一領域的發(fā)展速度實在是太快了。我相信,在馬上就要召開的NIPS大會上,僅僅消化會議上的內(nèi)容都會很困難。我個人非常期待在我最關心的領域看到更多有關機器學習的進展:個性化推薦,自然語言處理。我相信,在未來的幾個月里機器學習能夠解決假新聞的問題。此外,我也希望看到更多的自動駕駛汽車上路,機器學習被應用到健康相關的領域,或者創(chuàng)造信息更自由、更公正的社會。
3. Yoshua Bengio,蒙特利爾大學計算機科學及應用研究系教授,加拿大統(tǒng)計學習算法首席科學家
在我看來,2016年的大事件主要集中在深度強化學習、生成模型、神經(jīng)機器翻譯這三個領域。首先,我們有了AlphaGo(DeepMind的神經(jīng)網(wǎng)絡強化學習打敗了世界圍棋冠軍)。在過去的一整年中,我們看到了一系列展示生成對抗網(wǎng)絡(用于生成模型的無監(jiān)督學習)是多么成功的論文。在無監(jiān)督學習領域,自相關神經(jīng)網(wǎng)絡(比如DeepMind的WaveNet論文)也取得了很多預想不到的成功。最后,就在一個月之前,我們看到了神經(jīng)機器翻譯(其中一部分是我的實驗室2014年開始做的)的加冕:谷歌將這項技術應用到了谷歌翻譯中,并取得了顯著的成果(非常接近人類水平)。
我相信這些成果都預示著2017年的趨勢:無監(jiān)督學習會取得更多的進展(也存在很大的挑戰(zhàn),在這方面離人類的能力還差得很遠),而計算機在理解和生成自然語言方面的能力,估計最先會在聊天機器人和其他對話系統(tǒng)上落地。另一個可能的趨勢:將深度學習應用到醫(yī)療領域中包括對醫(yī)療圖像、臨床數(shù)據(jù)、基因組數(shù)據(jù)等各種類型數(shù)據(jù)上的研究和成果將會大大增加。隨著應用范圍的擴大,包括自動駕駛汽車,計算機視覺也會持續(xù)取得進展,不過我覺得大家還是低估了實現(xiàn)真正的自動駕駛所要面臨的挑戰(zhàn)。
4. Pedro Domingos,華盛頓大學計算機科學教授,《主算法》作者
2016年的重大事件當屬AlphaGo的勝利。2017年,聊天機器人和自動駕駛汽車可能會取得較大的進展,不過主要是因為很多大公司都在投資這兩個領域。從更底層的層面上來說,我們可能看到更多的深度學習和其他的機器學習以及人工智能技術的混用,這是成熟技術的典型標志。
5. Oren Etzioni,Allen人工智能研究所CEO,前華盛頓大學教授,數(shù)百篇技術論文的作者
2016年的最大成就非取得巨大成功的AlphaGo莫屬。2017年,我們將看到更多的強化學習在神經(jīng)網(wǎng)絡上的應用,以及更多神經(jīng)網(wǎng)絡領域的自然語言處理和視覺的研究。不過,挑戰(zhàn)也是并存的,對于神經(jīng)網(wǎng)絡來說,標記的數(shù)據(jù)有限仍然是個問題,而且需要很長的時間才能解決這個問題?,F(xiàn)在對深度學習和更寬泛的機器學習來說仍然處在早期。
6. Ajit Jaokar,#數(shù)據(jù)科學,#物聯(lián)網(wǎng),#大數(shù)據(jù),#智慧城市,#教育科技
2017年對物聯(lián)網(wǎng)和人工智能來說都會是非常重要的一年。就像我最近在KDnuggets上發(fā)的文章中說的那樣,人工智能將成為企業(yè)的核心競爭力。而對于物聯(lián)網(wǎng)來說,這意味著構建并部署跨平臺(Cloud 、Edge、Streaming)。對于AI而言,持續(xù)學習意味著持續(xù)的進步。
7. Neil Lawrence,謝菲爾德大學機器學習教授
我認為事情正在朝著我們預期的方向發(fā)展。深度學習方法正在被智能地部署到大規(guī)模的數(shù)據(jù)集上。對于規(guī)模小一點的數(shù)據(jù)集,我想我們可能會看到模型改造的一些有趣的方向,比如,重新利用預備訓練深度學習模型。對于怎樣做的更好,還有很多有趣的開放性的問題。另一個趨勢就是聚焦這一領域的媒體越來越多,包括Arxiv上尚未審核的的論文中的主流文章。媒體報道的速度在今年預計為會加快,同時,學術界也應該更加注意如何推廣他們的工作(比如在社交媒體上),特別是在論文還未經(jīng)審核的情況下。
8. Randal Olson,賓夕法尼亞大學生物醫(yī)學信息研究所高級數(shù)據(jù)科學家
2016年,自動機器學習(AutoML)系統(tǒng)和人類機器學習專家相比開始變得有競爭力。今年早些時候,MIT的一個團隊創(chuàng)建了一個數(shù)據(jù)科學機器,在KDD杯和IJCAI機器學習競賽中打敗了數(shù)百個團隊。就在這個月,我們的內(nèi)部AutoML系統(tǒng)——TPOT,在幾次Kaggle比賽中都排進了前10%。我相信AutoML將會在2017年取代人類專家進行機器學習分析。
9. Charles Martin,數(shù)據(jù)科學家&機器學習專家
2016是深度學習的分水嶺。2015年底谷歌開源了TensorFlow,隨后大量相關應用不斷涌現(xiàn)。結合Keras、Jupyter Notebook,以及使用GPU的AWS節(jié)點,數(shù)據(jù)科學團隊有了開始創(chuàng)建真正創(chuàng)新的學習應用,并很快陳勝收益的所需要的基礎設施。但是他們或許沒有相關人才?不過,這不是跟編程無關,也不是建設基礎設施的競賽。這和傳統(tǒng)的分析很不相同,沒有人真正理解為什么深度學習有用:目前都是谷歌和Facebook在說,高管們在聽。2017年,這些公司將會引進最好的深度學習技術來提高自己的能力底線。
10. Mattew Mayo,數(shù)據(jù)科學家,KDnuggets副主編
2016年的大事件應該是我們正在從深度學習中加速獲得回報。AlphaGo“征服”圍棋游戲算得上是最突出的例子。展望2017,我希望神經(jīng)網(wǎng)絡能繼續(xù)取得進展。不過,自動機器學習也會變得非常重要?;蛟S對外界來說,自動機器學習不像深度神經(jīng)網(wǎng)絡那樣吸人眼球,但是自動機器學習將會對機器學習、人工智能和數(shù)據(jù)科學產(chǎn)生深遠的影響,而這個影響將會在2017年顯現(xiàn)出來。
11. Brandon Rohrer,F(xiàn)acebook的數(shù)據(jù)科學家
2016年,機器人識別唇語的精確度比人類更高,聽寫打字的速度比人類更快,而且還可以模擬人類的聲音,這些都是探索新穎架構和算法的結果。卷積神經(jīng)網(wǎng)絡正在被改造,并結合強化學習器和時間感知方法來打開新的應用領域。2017年,我預計更多的人類基準會被打破,特別是那些基于視覺、適合卷積神經(jīng)網(wǎng)絡的挑戰(zhàn)。同時,我預計(也希望)我們的團隊能夠進軍決策制定的周邊領域,非視覺特征創(chuàng)建和時間感知方法將變得更頻繁、更富有成果。所有這些使得智能機器人成為可能。如果我們足夠幸運,2017年將帶給我們一臺能夠在沖咖啡方面打敗人類的機器。
12. Daniel Tunkelang,數(shù)據(jù)科學、工程、領導力
2016年的最大新聞當屬AlphaGo打敗人類圍棋冠軍李世石。就算對AI社區(qū)來說,也算的上是一個驚喜,它將會被當成深度學習興起的爆發(fā)點。2016年是深度學習和AI的一年,聊天機器人、自動駕駛汽車、計算機輔助診斷,只要有合適的訓練數(shù)據(jù),配備足夠強勁的計算性能就能解鎖這些可能性。2017將帶給我們的不僅僅是成功,還會有失望。像TensorFlow這樣的技術會把深度學習商業(yè)化,AI也將成為消費品中理所當然的東西。但是我們終會到達我們可以建模和優(yōu)化的極限,而且必須面對數(shù)據(jù)中的偏差。我們會繼續(xù)成長,然后意識到我們距離通用的人工智能或者奇點還很遠很遠。
via KDnuggets
對大數(shù)據(jù)領域感興趣的讀者,請查看雷鋒網(wǎng)相關文章:《大數(shù)據(jù)領域在2016年都有哪些成果及趨勢?聽聽8位專家怎么說》。
【招聘】雷鋒網(wǎng)堅持在人工智能、無人駕駛、VR/AR、Fintech、未來醫(yī)療等領域第一時間提供海外科技動態(tài)與資訊。我們需要若干關注國際新聞、具有一定的科技新聞選題能力,翻譯及寫作能力優(yōu)良的外翻編輯加入。
簡歷投遞至 wudexin@leiphone.com,工作地 北京。
雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。