1
本文作者: 章敏 | 2016-08-19 15:28 |
今天KDD 2016有很多有意思的內(nèi)容,其中要數(shù)題為“Is Deep Learning the New 42”的Plenary Panel給我印象最深。
首先說一下參與Panel的幾位學者的來頭。主持Panel的Andrei Broder自然不用說,目前擔任Google的Distinguished Scientist,之前是Yahoo Research的VP。參與討論的有University of Washington的Pedro Domingos(因為Markov Logic Networks著名),來自Google DeeMind的Nando de Freitas(之前因為Gaussian Process,現(xiàn)在因為Deep Learning著名),來自Université Paris-Saclay的Isabelle Guyon(因為SVM著名),來自University of California at Berkeley的Jitendra Malik(因為CV界的好幾個算法著名)以及來自Purdue University的Jennifer Neville(因為Graph Mining著名)。
總體感覺是,Jennifer和Nando de Freitas大部分時間在打醬油。兩者均在學術(shù)圈的時日比較短,雖然Nando是做Deep Learning的,但深入的觀點感覺并不多,無法從多個領(lǐng)域的整體感覺來談?wù)揇eep Learning的一些High Level Idea。整個Panel而言,表現(xiàn)最搶眼的是Pedro Domingos,觀點犀利,而且觀眾很有共鳴。我這里總結(jié)幾點:
1. Deep Learning的核心成功來源于Representation Learning。Pedro希望看到不同類型的,基于不同觀念的Representation Learning興起。
2. Deep Learning還處于非常早期的發(fā)展時期,我們需要對認知Deep Learning為什么成功,而不僅僅限于能做什么Task。
3. Model Interpretative可能是一個偽問題。在精確的模型和有解釋意義的模型之前,寧愿選擇精確的模型。人類的認知局限,恰恰是希望能夠發(fā)展出人類 所不能解釋的,超過人類能力的模型。如果是為了解釋性,從而降低了模型的準確度,那就違背了Machine Learning的初衷。人類理解不了模型是好事,需要提高的人類的認知能力。這一個觀點在會場上引起了很大的震動。
4. 學者有義務(wù)對整個社會進行教育,所有人都應(yīng)該理解Machine Learning的局限和期望。(這一點也就能夠解釋Pedro為什么會寫科普性質(zhì)的書籍《Master Algorithm》。)
5. 學術(shù)圈的存在意義不是做Incremental的學術(shù),而恰恰是做Long-term,可能會失敗的有深遠意義的研究。
6. Deep Learning未必能夠在所有的領(lǐng)域都大放異彩。目前的成功還主要在Image、Speech領(lǐng)域。
Nando有一個觀點還是不錯的,那就是現(xiàn)在Deep Learning的成功也得益于軟件系統(tǒng),特別是現(xiàn)在DL的各類框架的成熟。
總之,整個一個多小時Panel人山人海,看來Deep Learning依然是目前最為火熱的研究課題。
Ps:本文轉(zhuǎn)載自洪亮劼微博
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。