0
本文作者: 周翔 | 2016-12-30 12:17 |
雷鋒網(wǎng)按:2016即將過去,針對機器學(xué)習(xí)和人工智能領(lǐng)域在2016年取得的重大進展,以及2017年可能出現(xiàn)的新趨勢,外媒KDnuggets咨詢了12位業(yè)內(nèi)頂級專家,匯集了他們的觀點并整理成文,其中AlphaGo戰(zhàn)勝李世石成為今年的標(biāo)志性事件。雷鋒網(wǎng)對全文進行了編譯,未經(jīng)許可,不得轉(zhuǎn)載。
1. Yaser Abu-Mostafa,加州理工學(xué)院顧問
2016和2017年對機器學(xué)習(xí)來說都是令人興奮的。其中,兩個趨勢正在加速到來。首先,機器學(xué)習(xí)作為強大的技術(shù)正在被越來越多的示例證明。比如最近很成功的AlphaGo,還有非人類加密(inhuman encryption)都是引人注目的例子。其次,機器學(xué)習(xí)應(yīng)用的擴張:機器學(xué)習(xí)正被應(yīng)用在更復(fù)雜的任務(wù)以及更多領(lǐng)域中,而且被更多的人作為挖掘數(shù)據(jù)的方式。這也是谷歌、微軟、Facebook、IBM結(jié)成AI聯(lián)盟的原因。
2. Xavier Amatriain,Quora工程副總裁
2016年或許可以成為“機器學(xué)習(xí)大熱”被載入史冊的一年。似乎所有公司都在做機器學(xué)習(xí),如果沒有,那么就是想著收購一家初創(chuàng)公司來進入這一領(lǐng)域。
公平地說,說機器學(xué)習(xí)大熱是有原因的。你能相信距離谷歌宣布開源TensorFlow才剛剛一年嗎?短短一年中,從發(fā)現(xiàn)新藥到作曲,TensorFlow已經(jīng)被廣泛運用于各種項目中。谷歌并不是唯一一家開源他們的機器學(xué)習(xí)軟件的公司。微軟開源了CNTK,百度宣布推出PaddlePaddle,亞馬遜近期剛剛宣布將會采用MXNet作為AWS的機器學(xué)習(xí)平臺。Facebook則同時支持兩個深度學(xué)習(xí)框架:Torch和Caffe。另一方面,谷歌也同時支持目前非常成功的Keras。單從這點來看,谷歌和Facebook算是打平了。
除了大肆宣傳以及各大公司對機器學(xué)習(xí)開源項目的支持外,2016年還涌現(xiàn)了很多關(guān)于機器學(xué)習(xí)的應(yīng)用,而這在幾個月之前都很難想象,其中WaveNet語音合成的質(zhì)量讓我印象深刻。過去我也曾經(jīng)處理過類似的問題,所以非常欣賞Wavenet所取得的成果。此外,機器學(xué)習(xí)在識別唇語方面取得的成果也很突出,而視頻識別的應(yīng)用預(yù)計在不久的將來也會有很多用途,說不定會讓人毛骨悚然。還需要提及的是谷歌在機器翻譯領(lǐng)域取得的重大進展,這一領(lǐng)域在一年內(nèi)取得如此多的進展著實令人驚訝。
事實上,機器翻譯并不是過去一年中機器學(xué)習(xí)在語言技術(shù)領(lǐng)域取得的唯一進展。近期,為了生成更豐富的語言模型,將深度時序網(wǎng)絡(luò)與副信息(side-information)結(jié)合起來的嘗試也很有意思。在“A Neural Knowledge Language Model”一文中,Bengio的團隊將知識圖譜和RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))結(jié)合了起來,在“Contextual LSTM models for Large scale NLP Tasks”論文中,DeepMind將主題并入了LSTM(長短期記憶人工神經(jīng)網(wǎng)絡(luò))模型。此外,在模擬注意力和語言模型記憶方面也有很多有趣的工作。這方面的論文,我比較推薦今年在ICML上發(fā)表的“Ask Me Anything: Dynamic Memory Networks for NLP”。
如果要為2016年的回顧畫上一個句號,那么我不得不提我的專業(yè)領(lǐng)域的一些進展:推薦系統(tǒng)。當(dāng)然,深度學(xué)習(xí)也影響了這一領(lǐng)域。雖然我仍然不會推薦將深度學(xué)習(xí)作為推薦系統(tǒng)的默認(rèn)方法,有趣的是,深度學(xué)習(xí)已經(jīng)在推薦系統(tǒng)中被廣泛采用,比如Youtube。不過,在與深度學(xué)習(xí)無關(guān)的領(lǐng)域也有一些很有趣的研究。今年ACM Recsys的最佳論文頒給了“Local Item-Item Models For Top-N Recommendation”,它是對稀疏線性方法的擴展,使用的是初始無監(jiān)督集群。此外,“Field-aware Factorization Machines for CTR Prediction”描述了如何在Criteo CTR Prediction Kaggle挑戰(zhàn)中獲勝方法,這提醒我們,因子分解機(Factorization Machine)仍然是機器學(xué)習(xí)工具包里的一個有用的工具。
如果要列出過去12個月中機器學(xué)習(xí)所取得的進展,估計要好幾張紙才能寫完。我甚至還沒提到圖像識別、深度強化學(xué)習(xí)的突破,以及自動駕駛汽車和圍棋游戲方面的重大進展。更不用說機器學(xué)習(xí)對社會的負(fù)面影響,以及因此引起的對算法的偏見和公平性的討論。
那么,我們對2017年又應(yīng)該有什么期待呢?這個很難預(yù)測,畢竟這一領(lǐng)域的發(fā)展速度實在是太快了。我相信,在馬上就要召開的NIPS大會上,僅僅消化會議上的內(nèi)容都會很困難。我個人非常期待在我最關(guān)心的領(lǐng)域看到更多有關(guān)機器學(xué)習(xí)的進展:個性化推薦,自然語言處理。我相信,在未來的幾個月里機器學(xué)習(xí)能夠解決假新聞的問題。此外,我也希望看到更多的自動駕駛汽車上路,機器學(xué)習(xí)被應(yīng)用到健康相關(guān)的領(lǐng)域,或者創(chuàng)造信息更自由、更公正的社會。
3. Yoshua Bengio,蒙特利爾大學(xué)計算機科學(xué)及應(yīng)用研究系教授,加拿大統(tǒng)計學(xué)習(xí)算法首席科學(xué)家
在我看來,2016年的大事件主要集中在深度強化學(xué)習(xí)、生成模型、神經(jīng)機器翻譯這三個領(lǐng)域。首先,我們有了AlphaGo(DeepMind的神經(jīng)網(wǎng)絡(luò)強化學(xué)習(xí)打敗了世界圍棋冠軍)。在過去的一整年中,我們看到了一系列展示生成對抗網(wǎng)絡(luò)(用于生成模型的無監(jiān)督學(xué)習(xí))是多么成功的論文。在無監(jiān)督學(xué)習(xí)領(lǐng)域,自相關(guān)神經(jīng)網(wǎng)絡(luò)(比如DeepMind的WaveNet論文)也取得了很多預(yù)想不到的成功。最后,就在一個月之前,我們看到了神經(jīng)機器翻譯(其中一部分是我的實驗室2014年開始做的)的加冕:谷歌將這項技術(shù)應(yīng)用到了谷歌翻譯中,并取得了顯著的成果(非常接近人類水平)。
我相信這些成果都預(yù)示著2017年的趨勢:無監(jiān)督學(xué)習(xí)會取得更多的進展(也存在很大的挑戰(zhàn),在這方面離人類的能力還差得很遠(yuǎn)),而計算機在理解和生成自然語言方面的能力,估計最先會在聊天機器人和其他對話系統(tǒng)上落地。另一個可能的趨勢:將深度學(xué)習(xí)應(yīng)用到醫(yī)療領(lǐng)域中包括對醫(yī)療圖像、臨床數(shù)據(jù)、基因組數(shù)據(jù)等各種類型數(shù)據(jù)上的研究和成果將會大大增加。隨著應(yīng)用范圍的擴大,包括自動駕駛汽車,計算機視覺也會持續(xù)取得進展,不過我覺得大家還是低估了實現(xiàn)真正的自動駕駛所要面臨的挑戰(zhàn)。
4. Pedro Domingos,華盛頓大學(xué)計算機科學(xué)教授,《主算法》作者
2016年的重大事件當(dāng)屬AlphaGo的勝利。2017年,聊天機器人和自動駕駛汽車可能會取得較大的進展,不過主要是因為很多大公司都在投資這兩個領(lǐng)域。從更底層的層面上來說,我們可能看到更多的深度學(xué)習(xí)和其他的機器學(xué)習(xí)以及人工智能技術(shù)的混用,這是成熟技術(shù)的典型標(biāo)志。
5. Oren Etzioni,Allen人工智能研究所CEO,前華盛頓大學(xué)教授,數(shù)百篇技術(shù)論文的作者
2016年的最大成就非取得巨大成功的AlphaGo莫屬。2017年,我們將看到更多的強化學(xué)習(xí)在神經(jīng)網(wǎng)絡(luò)上的應(yīng)用,以及更多神經(jīng)網(wǎng)絡(luò)領(lǐng)域的自然語言處理和視覺的研究。不過,挑戰(zhàn)也是并存的,對于神經(jīng)網(wǎng)絡(luò)來說,標(biāo)記的數(shù)據(jù)有限仍然是個問題,而且需要很長的時間才能解決這個問題。現(xiàn)在對深度學(xué)習(xí)和更寬泛的機器學(xué)習(xí)來說仍然處在早期。
6. Ajit Jaokar,#數(shù)據(jù)科學(xué),#物聯(lián)網(wǎng),#大數(shù)據(jù),#智慧城市,#教育科技
2017年對物聯(lián)網(wǎng)和人工智能來說都會是非常重要的一年。就像我最近在KDnuggets上發(fā)的文章中說的那樣,人工智能將成為企業(yè)的核心競爭力。而對于物聯(lián)網(wǎng)來說,這意味著構(gòu)建并部署跨平臺(Cloud 、Edge、Streaming)。對于AI而言,持續(xù)學(xué)習(xí)意味著持續(xù)的進步。
7. Neil Lawrence,謝菲爾德大學(xué)機器學(xué)習(xí)教授
我認(rèn)為事情正在朝著我們預(yù)期的方向發(fā)展。深度學(xué)習(xí)方法正在被智能地部署到大規(guī)模的數(shù)據(jù)集上。對于規(guī)模小一點的數(shù)據(jù)集,我想我們可能會看到模型改造的一些有趣的方向,比如,重新利用預(yù)備訓(xùn)練深度學(xué)習(xí)模型。對于怎樣做的更好,還有很多有趣的開放性的問題。另一個趨勢就是聚焦這一領(lǐng)域的媒體越來越多,包括Arxiv上尚未審核的的論文中的主流文章。媒體報道的速度在今年預(yù)計為會加快,同時,學(xué)術(shù)界也應(yīng)該更加注意如何推廣他們的工作(比如在社交媒體上),特別是在論文還未經(jīng)審核的情況下。
8. Randal Olson,賓夕法尼亞大學(xué)生物醫(yī)學(xué)信息研究所高級數(shù)據(jù)科學(xué)家
2016年,自動機器學(xué)習(xí)(AutoML)系統(tǒng)和人類機器學(xué)習(xí)專家相比開始變得有競爭力。今年早些時候,MIT的一個團隊創(chuàng)建了一個數(shù)據(jù)科學(xué)機器,在KDD杯和IJCAI機器學(xué)習(xí)競賽中打敗了數(shù)百個團隊。就在這個月,我們的內(nèi)部AutoML系統(tǒng)——TPOT,在幾次Kaggle比賽中都排進了前10%。我相信AutoML將會在2017年取代人類專家進行機器學(xué)習(xí)分析。
9. Charles Martin,數(shù)據(jù)科學(xué)家&機器學(xué)習(xí)專家
2016是深度學(xué)習(xí)的分水嶺。2015年底谷歌開源了TensorFlow,隨后大量相關(guān)應(yīng)用不斷涌現(xiàn)。結(jié)合Keras、Jupyter Notebook,以及使用GPU的AWS節(jié)點,數(shù)據(jù)科學(xué)團隊有了開始創(chuàng)建真正創(chuàng)新的學(xué)習(xí)應(yīng)用,并很快陳勝收益的所需要的基礎(chǔ)設(shè)施。但是他們或許沒有相關(guān)人才?不過,這不是跟編程無關(guān),也不是建設(shè)基礎(chǔ)設(shè)施的競賽。這和傳統(tǒng)的分析很不相同,沒有人真正理解為什么深度學(xué)習(xí)有用:目前都是谷歌和Facebook在說,高管們在聽。2017年,這些公司將會引進最好的深度學(xué)習(xí)技術(shù)來提高自己的能力底線。
10. Mattew Mayo,數(shù)據(jù)科學(xué)家,KDnuggets副主編
2016年的大事件應(yīng)該是我們正在從深度學(xué)習(xí)中加速獲得回報。AlphaGo“征服”圍棋游戲算得上是最突出的例子。展望2017,我希望神經(jīng)網(wǎng)絡(luò)能繼續(xù)取得進展。不過,自動機器學(xué)習(xí)也會變得非常重要?;蛟S對外界來說,自動機器學(xué)習(xí)不像深度神經(jīng)網(wǎng)絡(luò)那樣吸人眼球,但是自動機器學(xué)習(xí)將會對機器學(xué)習(xí)、人工智能和數(shù)據(jù)科學(xué)產(chǎn)生深遠(yuǎn)的影響,而這個影響將會在2017年顯現(xiàn)出來。
11. Brandon Rohrer,F(xiàn)acebook的數(shù)據(jù)科學(xué)家
2016年,機器人識別唇語的精確度比人類更高,聽寫打字的速度比人類更快,而且還可以模擬人類的聲音,這些都是探索新穎架構(gòu)和算法的結(jié)果。卷積神經(jīng)網(wǎng)絡(luò)正在被改造,并結(jié)合強化學(xué)習(xí)器和時間感知方法來打開新的應(yīng)用領(lǐng)域。2017年,我預(yù)計更多的人類基準(zhǔn)會被打破,特別是那些基于視覺、適合卷積神經(jīng)網(wǎng)絡(luò)的挑戰(zhàn)。同時,我預(yù)計(也希望)我們的團隊能夠進軍決策制定的周邊領(lǐng)域,非視覺特征創(chuàng)建和時間感知方法將變得更頻繁、更富有成果。所有這些使得智能機器人成為可能。如果我們足夠幸運,2017年將帶給我們一臺能夠在沖咖啡方面打敗人類的機器。
12. Daniel Tunkelang,數(shù)據(jù)科學(xué)、工程、領(lǐng)導(dǎo)力
2016年的最大新聞當(dāng)屬AlphaGo打敗人類圍棋冠軍李世石。就算對AI社區(qū)來說,也算的上是一個驚喜,它將會被當(dāng)成深度學(xué)習(xí)興起的爆發(fā)點。2016年是深度學(xué)習(xí)和AI的一年,聊天機器人、自動駕駛汽車、計算機輔助診斷,只要有合適的訓(xùn)練數(shù)據(jù),配備足夠強勁的計算性能就能解鎖這些可能性。2017將帶給我們的不僅僅是成功,還會有失望。像TensorFlow這樣的技術(shù)會把深度學(xué)習(xí)商業(yè)化,AI也將成為消費品中理所當(dāng)然的東西。但是我們終會到達我們可以建模和優(yōu)化的極限,而且必須面對數(shù)據(jù)中的偏差。我們會繼續(xù)成長,然后意識到我們距離通用的人工智能或者奇點還很遠(yuǎn)很遠(yuǎn)。
via KDnuggets
對大數(shù)據(jù)領(lǐng)域感興趣的讀者,請查看雷鋒網(wǎng)相關(guān)文章:《大數(shù)據(jù)領(lǐng)域在2016年都有哪些成果及趨勢?聽聽8位專家怎么說》。
【招聘】雷鋒網(wǎng)堅持在人工智能、無人駕駛、VR/AR、Fintech、未來醫(yī)療等領(lǐng)域第一時間提供海外科技動態(tài)與資訊。我們需要若干關(guān)注國際新聞、具有一定的科技新聞選題能力,翻譯及寫作能力優(yōu)良的外翻編輯加入。
簡歷投遞至 wudexin@leiphone.com,工作地 北京。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。