丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給宗仁
發(fā)送

0

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

本文作者: 宗仁 2016-10-20 22:20 專題:2016中國計算機大會(CNCC 2016)
導語:后深度學習時代的人工智能,就是想把人工智能從這個狹義的,只能解決一定范圍的方法,能不能推廣更寬廣的范圍去。

雷鋒網(wǎng)按:本文根據(jù)張鈸院士近日在 CNCC 2016 上所做的大會特邀報告《《人工智能未來展望,后深度學習時代》》編輯整理而來,在未改變原意的基礎上略作了刪減。

張鈸:CCF會士,2014CCF終身成就獎獲得者,中國科學院院士,計算機專家,清華大學類腦計算研究中心學術委員會主任。曾任信息學院學術委員會主任物聯(lián)網(wǎng)物聯(lián)網(wǎng),智能技術與系統(tǒng)國家重點實驗室主任,中國自動化學會智能控制專業(yè)委員會主任,計算機學報副主賓,2011年德國漢堡大學授予自然科學名譽博士,2016年獲微軟研究員接觸合作貢獻獎等。從事人工智能理論、人工神經網(wǎng)絡、遺傳算法遺傳算法、分形和小波等理論研究,以及把上述理論應用于模式識別、知識工程、智能機器人與智能控制等領域的應用技術研究,共發(fā)表論文200多篇,中英文專著4部。

今年是人工智能60周年,如果用人生的起步來衡量的話,已經進入了老年,不過還是有很多人希望人工智能能提供成熟的成果和技術,用來發(fā)展產業(yè)、發(fā)展經濟進行科學研究。我今天做的報告,將通過分析時代的特點,這個時代下人工智能與計算機的可能命運,來重新認識人工智能,我們賴以生存的計算機,還有我們自己。

后深度學習的前提-人工智能的春天又來了

如今人工智能的春天又來了,不過和30年前在日本的那次相比,時間不同、地點不同,主題也不同,這一次是關于人工智能第二個成果,深度學習相關的。

從知識情報處理到深度學習

從第五代計算機到類腦計算機

從大容量知識庫到大數(shù)據(jù)

從高速符號推理到類腦芯片

從自然語言理解到感知(機器人)

我想這一次是不是我們的機會,我們能不能彎道超車還是又一個日本的“五代機”?我的看法是這兩個可能性都存在,關鍵我們怎么做。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

中國有句老話,三十年河東,三十年河西,和30年前比現(xiàn)在有何不同?在我眼里兩點,一點是大數(shù)據(jù),另一點是概率統(tǒng)計方法(及其理論)。正是因為這兩個因素催生了現(xiàn)在的深度學習大潮。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

這個第一點大數(shù)據(jù)我不用宣傳,大家看這個圖就行。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

這是在這種啟發(fā)下建立的神經網(wǎng)絡模型,這里神經網(wǎng)絡模型里要著重講下概率統(tǒng)計方法論,兩個詞,一個貝葉斯推理,一個概率統(tǒng)計,被“引進”了人工智能,并使得人工智能發(fā)生了革命性的變化。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

其實很多人不知道,作為對當下人工智能有根本性貢獻的概率統(tǒng)計,30年前的它跟現(xiàn)在的它還有很多不同。就是下圖的四個里程碑。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

我們現(xiàn)在能夠做深度學習,能夠在幾百萬、幾千萬的參數(shù)下做優(yōu)化,很多人都以為是計算機變快,其實不完全是,而是要歸功于概念統(tǒng)計方法的變化。這個變化使得我們現(xiàn)在能把深度學習做好。就是上面四個里程碑的出現(xiàn),大家一定要注意上面的四個里程碑。

后來這些里程碑進一步發(fā)展成神經網(wǎng)絡了,特別是深度學習,使用多層網(wǎng)絡進行學習。所謂深度,就是層數(shù)比較多。由于用的深度學習方法,把模式識別、圖像識別等識別方法的準確度提高了10%,這個事情又引起了深度學習的熱。

為什么呢?因為深度學習解決了一個問題,有相當一部分人,按中文的說法,我們知其然,不知其所以然。我能識別了了馬,但我們描述不了馬,然后怎么辦?那就用深度學習辦法:

  • 它可以解決一些不能完全表述的問題,也就是說“知其然,不知其所以然” 的問題。

  • 第二個它能針對不確定性的問題,我們不斷的變化,我可以不斷的再學習,最后,它能解決不能清楚表達的問題。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

  • 另外,深度學習還有一個完全改變傳統(tǒng)神經網(wǎng)絡的作用,它不僅僅做函數(shù)映射,更重要提取那些多層次重復的模式,這是我們講的真正公共的特征。

這樣使我們做模式識別可以達到很高的水平,后來這些用到模式識別、用到語音,包括用到文本(現(xiàn)在正在做,但是效果不如前面,但也有一些效果),效果都很不錯。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

我們可以這么來說,深度學習這個第二個人工智能提供出來的成果,可以幫助我們解決在給定的數(shù)據(jù)庫下,有了可利用的大數(shù)據(jù),在感知信息處理上,有可能達到人類的水平甚至超過人類的水平。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

后深度學習時代的人工智能

后深度學習時代的人工智能,就是想把人工智能從這個狹義的,只能解決一定范圍的方法,推廣更寬廣的范圍去,這就是我們現(xiàn)在講所謂的弱人工智能、強人工智能、以及通用人工智能。那我們要做這個工作面臨什么挑戰(zhàn)?基本上面臨三個挑戰(zhàn)。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

1)一個是概念統(tǒng)計方法帶來的困難。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

我們剛剛說概率統(tǒng)計方法,對人工智能起到了革命性的變化,但是也給人工智能帶來極大的挑戰(zhàn),這就是概念統(tǒng)計本身的原因——通過大量的數(shù)據(jù),它只能搞出來重復出現(xiàn)的特征,或者是數(shù)據(jù)中間的統(tǒng)計關聯(lián)性,它找出來的不是本質上的特征、語義上的特征,它找出來的關系,也不是因果關系,而是關聯(lián)關系。

這樣做的后果是什么?這里有深度網(wǎng)絡做出來的手寫數(shù)字識別系統(tǒng),各種各樣的2它都能認出來,它聲稱它這個性能超過了人,識別能力很超前 。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

但你們看,當我們用這種噪聲去欺騙它,它可以用99.99%的置信度確認它是2,這在人是不可能發(fā)生的,為什么機器會發(fā)生,因為機器去認識這種0和1,不是根據(jù)0和1本身的性質來認識,而是通過黑白分布的統(tǒng)計性質來認識它,因為這排噪聲跟2的統(tǒng)計是一樣的,所以才有這樣的錯誤。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

這個在模式識別上沒有問題,但如果用到決策就會出現(xiàn)大錯,它甚至可以把一塊石頭看成是馬。這個問題非常嚴重,也就是說深度學習區(qū)分的是重復的模型,但大腦區(qū)分的是語義的特征,這兩種區(qū)分有本質的區(qū)別,但是有關聯(lián)。

2)第二個,生數(shù)據(jù)帶來的問題。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

大數(shù)據(jù)有很多好處,其實大數(shù)據(jù)帶來很大問題。我們現(xiàn)在大數(shù)據(jù)跟以前的大數(shù)據(jù)不一樣,大量的數(shù)據(jù)是生數(shù)據(jù)。我們看網(wǎng)絡上傳來的數(shù)據(jù)都是摻雜了很多噪聲,有騙人的,有各種垃圾,這種數(shù)據(jù)叫生數(shù)據(jù)。大家看下機器對于生數(shù)據(jù)和經過加工的數(shù)據(jù)的魯棒性表現(xiàn)相對很差,不像人。

如果我們用右邊的圖去訓練這個神經網(wǎng)絡,它能很好認識的貓;如果用左邊的圖,它很難認識,因為它不知道貓在哪兒。這個吳教授在我們學校做報告的時候,我跟他開玩笑說,你老說你的好成果,不說你的毛病,它為什么能在貓臉與人臉的識別上都識別地非常好,因為它用訓練例的時候,是經過精心挑選的,沒有背景,沒有經過加工。因此,這三樣東西的識別都做地非常好。但如果正例、負例都隨便取,那它的識別率只有百分之十幾,幾乎不認識,可見機器跟人的認識形式是很不一樣,它非常不魯棒。

3)第三個,推廣能力,領域遷移。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

這兩種方法都是就事論事,都很難推廣到不同領域,這就是我們的挑戰(zhàn)。我們要從一個弱的智能到通用智能,必須要克服這種困難,如果解決這種困難,目前來講兩個解決辦法。

兩個解決辦法

1)一個辦法,是人工智能的這兩個方法結合起來,因為這兩個方法是互補的。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

因為知識驅動跟語義掛鉤,是理解;數(shù)據(jù)驅動是黑箱的方法,不理解,但可以保持從數(shù)據(jù)中提取模型。那么,前面那個必須有人工做模型,這個地方關鍵在哪兒?知識驅動方法是用離散的符號表示,深度學習是用高維空間里頭的向量,這兩個東西我們如果能把它 “溝通” 起來,就會把人工智能推動非常大地一步,現(xiàn)在世界上很多機構也在做這件事。

2)另外一個辦法,就是回到神經網(wǎng)絡的本源。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

它是根據(jù)神經網(wǎng)絡和深度學習借助于人腦神經的工作機制來形成的,人的神經網(wǎng)絡有一套辦法,這套辦法可以借鑒到現(xiàn)在的人工神經網(wǎng)絡來,這個工作,世界上也有很多機構在做。

我們一般把計算方法、深度學習,這兩個東西如果能夠溝通起來,現(xiàn)在主要做的溝通,這兩個方法結合起來就會把人工智能推廣大大的應用。

第二個,我一個文本看起來洋洋灑灑數(shù)萬頁,我為什么知道這里面說的是什么,因為不同局部的,我怎么從局部的信息,把它整合成為全局的認知,這個大腦里面也有一套辦法,這里面也涉及到很多研究。如果我們把這些研究移植到這個地方來,把人工智能往前走一步。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

后深度學習的計算機

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

現(xiàn)在對計算機有這么幾個批評,一個你能耗太大,大腦這么大強,才25W,你這一個計算機得多少?另外一個批評,就是對馮諾依曼結構,人腦里面是處理跟存儲在一起,你處理跟存儲分開,所以對對現(xiàn)在的計算機說三道四。

我想給大家吃一個定心丸,現(xiàn)代的計算機,我們這個人工智能學會(里的人)還是可以靠它維持很長時間的。首先,現(xiàn)在大家討論最熱的一個是個量子計算、一個是類腦計算。大家不要量子計算一出來現(xiàn)在的計算就不行了,不對了。因為量子算法,目前只有一個算法,它就是因子分解,它可以把指數(shù)變成多樣性,其它的都沒用。其它的,這個計算機即使它出來,只有涉及到因子分解那些算法,它有可能加快,其他它目前還沒有算法,算不了。所以量子計算機現(xiàn)在絕對代替不了現(xiàn)在的計算機,就像量子通訊代替不了現(xiàn)在的通訊一樣。

我想給大家吃的第二個定心丸,現(xiàn)在講的類腦計算,正確地講叫Brain Inspired Computer,而不是Brain like,大腦你都不知道什么樣子,你like誰呢。

如何建造計算,實現(xiàn)人工智能的兩種途徑,計算機方式或者學大腦的方式。數(shù)據(jù)提高了,加一個網(wǎng)絡芯片,目前做這個工作的人基本上都得保留一些馮諾依曼架構,不能把馮諾依曼立馬取消了。當然也有人直接從右邊往左邊做,這個是屬于基礎研究的一類,我們要做的話,這個類腦就需要學科的交叉,我特別推薦要數(shù)學、認知科學、心理學、神經科學和語言學等。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

最后說一下,人工智能究竟有多大的希望呢?取決于我們對認知的世界的認知,取決于我們對自身的了解多少?

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

好了,我們把我們對自身的了解分成兩個部分,左邊部分是“我們知道we know”,右邊那部分叫做“我們不知道”,所以我們把它畫大一點。

  • 我們知道的東西的白色的部分,這就是“我知道的知道”,這就是知其所以然更知其所以然,這就是白盒。(We know what we know)

比如說下國際象棋,就是我們能說清楚,我們知其所以然,又知其所以然,這個用傳統(tǒng)的人工智能模型可以解決它。

  • 我們知道的下方黑色部分,是“我們不知道的知道”。( We don't know what we know)。

這是黑箱,感知就是這樣,我們知其所以然,不知其所以然,我們知道那是張三,但我們說不清楚張三鼻子多高眼睛多大,那怎么辦,用深度學習。

從黑箱到白箱中間有個灰色地帶,好多問題有的說清楚,有的說不清楚。最典型的就是圍棋,圍棋有一部分能說清楚,而象棋都能說清楚,馬為什么這么走,卒為什么要向前走,圍棋絕大部分一顆白子為什么要落在這個地方,大師也說不清楚,他會說這是我的棋感。

棋感怎么做?這就是AlphaGo的重大貢獻,把棋感當作模式識別來做,你看到這個版面以后,你就應該知道怎么落子,這個版面就是一個模式,現(xiàn)在我們現(xiàn)在可以說,大師下圍棋下得好,不是因為它太聰明了,而是他的模式識別能力非常強,棋子有一點點變化,他就知道變了,就知道我的策略要變,這個就是用傳統(tǒng)模型+深度學習,AlphaGo就是這么做的,蒙特卡洛搜索+深度學習。這就是我們不知道的知道。

  • 還有藍色的部分,我們是不知道,但是我們(清楚地)知道我們不知道。(We know what we don't know)

比如情感、意識等等,這個也能夠用深度學習的方法來模擬,至少做到表面模擬。人工智能能做的這么多,這就是人工智能的厲害之處,為什么大家注意到,過去除了白色的部分,其它部分我們都不能做,人工智能卻能夠做這一切。

  • 但是唯獨黃色這部分,我們都不知道我們不知道。(We don't know what we don't know)

我們都不知道怎的情況下怎么做呢?腦科學研究覆蓋了所有,所以,我們的信息是建立在這個基礎上,我們不知道的我們不知道,變成我們知道的我們不知道,再把它變成我們知道的我們知道。傳統(tǒng)的算法只占在白色部分的一小部分,也就是說可以建立數(shù)學模型的問題,所以,我們?yōu)槭裁凑f人工智能寄予這么大的希望,原因就在這兒。

我就說這么多,謝謝大家。

雷峰網(wǎng)原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。

CNCC 2016|清華大學張鈸院士起底: 后深度學習時代的人工智能

分享:
相關文章

專注AIR(人工智能+機器人)

專注人工智能+機器人報道,經驗分享請加微信keatslee8(請注明原因)。 科學的本質是:問一個不恰當?shù)膯栴},于是走上了通往恰當答案的路。
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說