0
作者 | 劉千惠、邢東
編輯 | 蔣寶尚
過(guò)去的十年以深度神經(jīng)網(wǎng)絡(luò)為代表的人工智能技術(shù)深刻影響了人類社會(huì)。但深度神經(jīng)網(wǎng)絡(luò)的發(fā)展已經(jīng)進(jìn)入瓶頸期,我們?nèi)蕴幱谌跞斯ぶ悄軙r(shí)代。如何更近一步,跨入強(qiáng)人工智能,敲擊著每一位智能研究者的心。
算法提升,則是走向強(qiáng)人工智能的一個(gè)方向;而受腦啟發(fā)的硬件設(shè)計(jì),則是人工智能的另一方向。
在硬件層面上,智能研究如何從對(duì)人腦的研究中受益?隨著我國(guó)在類腦計(jì)算方面的深入,已有越來(lái)越多的學(xué)者開始拷問(wèn)這一問(wèn)題。
2020年4月25日,在未來(lái)論壇青創(chuàng)聯(lián)盟線上學(xué)術(shù)研討中,開展了AI+腦科學(xué)的主題討論,共有六位嘉賓發(fā)表演講,從Brain Science for AI和AI for Brain Science兩個(gè)不同的視角進(jìn)行前沿討論。
其中來(lái)自清華大學(xué)的吳華強(qiáng)老師做了題目為“大腦啟發(fā)的存算一體技術(shù)”的報(bào)告。在報(bào)告中吳教授介紹到:當(dāng)思考未來(lái)計(jì)算的時(shí)候,量子計(jì)算、光計(jì)算是向物理找答案,類腦計(jì)算、存算一體是向生物找答案,也就是向大腦找答案。
目前吳老師正在芯片上做電子突觸新器件,做存算一體的架構(gòu)。新器件方面主要研究的是憶阻器,它的特點(diǎn)是可以多比特,同時(shí)非易失,即把電去掉可以保持阻值,并且它速度很快。
另外,吳老師還提到,其用存算一體的計(jì)算結(jié)構(gòu)設(shè)計(jì)的芯片與樹莓派28納米的CPU做過(guò)對(duì)比,在準(zhǔn)確率相當(dāng)?shù)那闆r下,前者運(yùn)行一萬(wàn)張圖片是3秒,后者是59秒。
吳華強(qiáng), 清華大學(xué)微納電子系教授,清華大學(xué)微納電子系副系主任,清華大學(xué)微納加工平臺(tái)主任,北京市未來(lái)芯片技術(shù)高精尖創(chuàng)新中心副主任。
吳華強(qiáng):
我的報(bào)告將從硬件的挑戰(zhàn),研究進(jìn)展以及展望三方面來(lái)介紹大腦啟發(fā)的存算一體技術(shù)。
人工智能無(wú)處不在,從云端到我們手機(jī)端都有很多人工智能。不同的人工智能應(yīng)用對(duì)芯片的需求是不一樣的,比如數(shù)據(jù)中心、汽車無(wú)人駕駛要求算力特別高,而智能傳感網(wǎng)、物聯(lián)網(wǎng)和手機(jī)希望耗能低,追求高能效。不同應(yīng)用對(duì)芯片的不同需求給了芯片領(lǐng)域很多機(jī)會(huì)。
人工智能的三個(gè)發(fā)展浪潮和硬件算力也有關(guān)系。
從第一款神經(jīng)網(wǎng)絡(luò)Perceptron 網(wǎng)絡(luò)AI開始火起來(lái),到70年代進(jìn)入低谷,一個(gè)非常重要的因素是,雖然有很好的理論模型,但是沒(méi)有足夠的算力。
后來(lái)專家系統(tǒng)出現(xiàn),第二波浪潮又起來(lái)。這時(shí)候很多人做專門圍繞人工智能的計(jì)算機(jī)。同時(shí)代摩爾定律快速推動(dòng)芯片的發(fā)展,通用計(jì)算機(jī)的性能飛速上揚(yáng),專業(yè)計(jì)算機(jī)能做的通用計(jì)算機(jī)也能做,因此逐漸占據(jù)市場(chǎng),第二波浪潮又下去。
第三波浪潮,深度神經(jīng)網(wǎng)絡(luò)的提出到利用GPU加速網(wǎng)絡(luò)訓(xùn)練,GPU成為AI的主要訓(xùn)練平臺(tái)。有了更大的算力,網(wǎng)絡(luò)規(guī)模快速提升。AlphaGo Zero需要5000個(gè)TPU訓(xùn)練40天才成為地表最強(qiáng)的圍棋選手,花費(fèi)的時(shí)間還是很大的,因此人工智能的廣泛應(yīng)用需要硬件能力革新,支撐人工智能的發(fā)展。
芯片能提供的算力和人工智能的高需求是很矛盾的。第一臺(tái)計(jì)算機(jī)ENIAC出現(xiàn)在1947年,算力是每秒鐘5000次左右。英特爾2019年的CPU大約是20.8GFLOPS。我們看到它的變化是圍繞著摩爾定律,即每18個(gè)月翻一番的集成度來(lái)提升算力。但是目前AI的需求是每3.4個(gè)月翻一番。因此需要尋找新方法提供算力。
算力提升越來(lái)越困難有兩個(gè)原因,一是過(guò)去摩爾定律是把器件做的越來(lái)越小,現(xiàn)在器件尺寸縮小已經(jīng)接近物理極限了,所以摩爾定律逐漸失效。二是傳統(tǒng)計(jì)算架構(gòu)發(fā)展帶來(lái)的性能提升日趨緩慢?,F(xiàn)代計(jì)算系統(tǒng)普遍采用信息存儲(chǔ)和運(yùn)算分離的馮諾依曼架構(gòu),其運(yùn)算性能受到數(shù)據(jù)存儲(chǔ)速度和傳輸速度的限制。具體來(lái)說(shuō),CPU的計(jì)算速度小于1納秒,但是主存DRAM是百納秒左右,也就是存儲(chǔ)的速度遠(yuǎn)遠(yuǎn)低于計(jì)算速度。
在能耗上,以TSMC45納米的工藝為例,加減乘小于一個(gè)pJ,但是32位DRAM的讀要高達(dá)640個(gè)pJ,這一比也是百倍的差距。因此存儲(chǔ)速度遠(yuǎn)遠(yuǎn)低于CPU的速度,而存儲(chǔ)的功耗也遠(yuǎn)遠(yuǎn)高于CPU的功耗。這還沒(méi)有講存儲(chǔ)的寫,寫的功耗會(huì)更高。這樣整個(gè)系統(tǒng)的性能受到數(shù)據(jù)存儲(chǔ)速度和傳輸速度的限制,能耗也因?yàn)榇鎯?chǔ)讀的功耗和寫的功耗很大,導(dǎo)致整個(gè)系統(tǒng)功耗都很大。
現(xiàn)在可以看到很多新的計(jì)算出來(lái)了,量子計(jì)算、光計(jì)算、類腦計(jì)算、存算一體。所以當(dāng)我們要思考未來(lái)的計(jì)算時(shí),我自己覺(jué)得量子計(jì)算、光計(jì)算是向物理找答案,類腦計(jì)算、存算一體是向生物找答案,也就是向大腦找答案。
著名的人機(jī)大戰(zhàn),人工智能選手 AlphaGo用了176個(gè)GPU、1202個(gè)CPU,功耗是150000W。而我們大腦體積大概1.2L,有10^11個(gè)神經(jīng)元,10^15個(gè)突觸,思考的時(shí)候功耗是20W。大腦的功耗這么少,這么聰明,這里面還有這么大容量的神經(jīng)元、突觸。所以我們希望用腦啟發(fā)設(shè)計(jì)新的人工智能芯片。
我們想通過(guò)向生物學(xué)家學(xué)習(xí)、向神經(jīng)學(xué)家學(xué)習(xí),來(lái)看看大腦是如何處理計(jì)算的。大腦有幾個(gè)特點(diǎn),一個(gè)是有大量的神經(jīng)元連接性,以及神經(jīng)元加突觸的結(jié)構(gòu),一個(gè)神經(jīng)元將近連接了1萬(wàn)個(gè)突觸。第二個(gè)它的時(shí)空信息的編碼方式是用脈沖的方式。我們希望模仿大腦的結(jié)構(gòu)和工作機(jī)制,用脈沖編碼的形式來(lái)輸入輸出。
生物突觸是信息存儲(chǔ)也是信息處理的最底層的生物器件。我們想在芯片上做電子突觸新器件,做存算一體的架構(gòu)。新器件方面我們主要研究的是憶阻器,它的特點(diǎn)是可以多比特,同時(shí)非易失,即把電去掉以后可以保持這個(gè)阻值,并且它速度很快。還有很關(guān)鍵的一點(diǎn),它和集成電路的CMOS工藝是兼容的,可以做大規(guī)模集成。近十年我們一直圍繞這個(gè)器件來(lái)做其優(yōu)化和計(jì)算功能。
美國(guó)DARPA的FRANC項(xiàng)目提出用模擬信號(hào)處理方式來(lái)超越傳統(tǒng)的馮·諾依曼計(jì)算架構(gòu),希望帶來(lái)計(jì)算性能系統(tǒng)的增加。任正非在2019年接受采訪時(shí)說(shuō),未來(lái)在邊緣計(jì)算不是把CPU做到存儲(chǔ)器里,就是把存儲(chǔ)器做到CPU里,這就改變了馮·諾依曼結(jié)構(gòu),存儲(chǔ)計(jì)算合而為一,速度快。阿里2020年的十大科技趨勢(shì)里提到計(jì)算存儲(chǔ)一體化,希望通過(guò)存算一體的架構(gòu),突破AI算力瓶頸。存算一體的理念也是受大腦計(jì)算方式啟發(fā)的。
基于憶阻器的存算一體技術(shù)可以分為三個(gè)階段:第一個(gè)階段是單個(gè)器件的發(fā)展階段。2008年惠普實(shí)驗(yàn)室的Stan William教授首次在實(shí)驗(yàn)室制備了憶阻器,之后美國(guó)密西根大學(xué)的盧偉教授提出了電子突觸概念,美國(guó)UCSB大學(xué)的謝源教授提出了基于憶阻器的PRIME存算一體架構(gòu),引起廣泛關(guān)注。
第二個(gè)階段開始做陣列,2015年UCSB在12×12的陣列上演示了三個(gè)字母的識(shí)別,我們團(tuán)隊(duì)2017年在128×8的陣列上演示了三個(gè)人臉的識(shí)別,準(zhǔn)確率能夠大于95%,同時(shí)期還有IBM,UMass和HP等研究團(tuán)隊(duì)實(shí)驗(yàn)實(shí)現(xiàn)了在陣列上的存算一體。
第三個(gè)階段是存算一體芯片,我們以芯片設(shè)計(jì)領(lǐng)域的頂會(huì)ISSCC上近幾年發(fā)表的文章為例,2018年松下展示了多層感知機(jī)的宏電路,2019年臺(tái)灣地區(qū)新竹清華大學(xué)和臺(tái)積電聯(lián)合演示了卷積核計(jì)算的宏電路,今年清華和斯坦福合作做的限制玻耳茲曼機(jī)宏電路。
也是今年我們清華團(tuán)隊(duì)完成的一個(gè)全系統(tǒng)集成的完整的存算一體芯片,從系統(tǒng)測(cè)試結(jié)果來(lái)看,這個(gè)芯片能效高達(dá)78.4TOPs/W,是相當(dāng)高的。我們還做了一個(gè)對(duì)比,一個(gè)是存算一體的芯片和系統(tǒng),一個(gè)是用了樹莓派28納米的CPU。我們的芯片跑完一萬(wàn)張圖片是3秒,而他們是59秒,我們的速度要快很多,準(zhǔn)確率卻相當(dāng)。
今年1月我們?cè)贜ature上發(fā)表了一個(gè)憶阻器存算一體系統(tǒng)的工作。這個(gè)工作主要是把多個(gè)陣列放在一起組成一個(gè)系統(tǒng),并驗(yàn)證是否能用作模擬計(jì)算來(lái)實(shí)現(xiàn)AI的工作。我們提出新型混合訓(xùn)練算法,實(shí)現(xiàn)了與軟件相當(dāng)?shù)挠?jì)算精度。還提出了新型卷積空間并行架構(gòu),成倍提升了系統(tǒng)處理速度。
為什么憶阻器存算一體適合人工智能呢?因?yàn)榻徊骊嚵薪Y(jié)構(gòu)特別適合快速矩陣向量乘法。存算一體可以減少權(quán)重搬移帶來(lái)的功耗和延時(shí),有效地解決目前算力的瓶頸。另外,人工智能更關(guān)注系統(tǒng)準(zhǔn)確性,而不是每個(gè)器件的精度,這特別符合憶阻器和模擬計(jì)算的特點(diǎn)。
我們還和畢國(guó)強(qiáng)老師合作了一篇綜述文章。利用腦啟發(fā)來(lái)設(shè)計(jì)人工智能芯片,我們把大腦從I/O通道,到突觸,神經(jīng)元,到神經(jīng)環(huán)路,到整個(gè)大腦的結(jié)構(gòu),都和電子器件做了對(duì)比。文章題目叫《Bridging Biological and Artificial Neural Networks》,發(fā)表在2019年的Advanced Materials上面,如果大家感興趣可以讀這個(gè)文章。
展望未來(lái),希望能夠做一個(gè)存算一體的計(jì)算機(jī)系統(tǒng)。以前是晶體管加布爾邏輯加馮·諾依曼架構(gòu),現(xiàn)在是模擬型憶阻器加模擬計(jì)算和存算一體的非馮架構(gòu)。
在演講報(bào)告之后,來(lái)自中國(guó)科學(xué)技術(shù)大學(xué)神經(jīng)生物學(xué)與生物物理學(xué)系系主任畢國(guó)強(qiáng)老師,來(lái)自北京大學(xué)信息科學(xué)技術(shù)學(xué)院長(zhǎng)聘教授吳思老師和三位報(bào)告演講老師就腦科學(xué)已經(jīng)為AI發(fā)展提供了什么思想、方法和技術(shù)?有哪些典型案例?做了激烈的討論。
在會(huì)上胡曉林提到:有很多工作其實(shí)是從腦科學(xué)啟發(fā)過(guò)來(lái),追根溯源到1943年,麥克和皮茨這兩個(gè)人第一次提出人工神經(jīng)元MP神經(jīng)元,如果沒(méi)有他們提出人工神經(jīng)元,后面的這些CNN等等都是不存在的,他們其實(shí)是做神經(jīng)科學(xué)的,他們嘗試發(fā)明計(jì)算模型并解釋大腦的工作,他們提出了這種邏輯運(yùn)算的MP神經(jīng)元。后來(lái)Rosenbaltt把MP神經(jīng)元擴(kuò)展了一下,得到了多層感知機(jī)。后來(lái)在1989年、1990年的時(shí)候Yan LeCun等人提出來(lái)CNN,當(dāng)時(shí)是受了Neocognitron模型的啟發(fā),Neocognitron是日本人Fukushima提出來(lái)的,我真的找過(guò)他那篇論文,Neocognitron的結(jié)構(gòu)和現(xiàn)在CNN的結(jié)構(gòu)一模一樣,唯一區(qū)別是學(xué)習(xí)方法不一樣,Neocognitron在1980年提出來(lái)時(shí)還沒(méi)有BP算法。Neocognitron怎么來(lái)的呢?它是受到一個(gè)神經(jīng)科學(xué)的發(fā)現(xiàn),在貓的視覺(jué)皮層有簡(jiǎn)單細(xì)胞、復(fù)雜細(xì)胞兩種細(xì)胞,從這兩種細(xì)胞的特點(diǎn)出發(fā)構(gòu)建了Neocognitron嘗試去解釋大腦怎么識(shí)別物體的。后來(lái)才發(fā)展到CNN。MP神經(jīng)元和Neocognitron這是兩個(gè)具有里程碑意義的方法,這是很典型的神經(jīng)科學(xué)給我們AI的啟發(fā)的工作,甚至可以說(shuō)是顛覆性的工作。
坦白說(shuō)到這次神經(jīng)網(wǎng)絡(luò)、人工智能的騰飛,這次騰飛期間我并沒(méi)有看到特別多令人非常興奮的腦啟發(fā)的工作,我本人也做了一些這方面的工作,發(fā)現(xiàn)目前一些受腦科學(xué)啟發(fā)的計(jì)算模型好像都沒(méi)有我剛才說(shuō)的那兩個(gè)模型的意義那么大。希望這個(gè)領(lǐng)域能出現(xiàn)一些新的腦啟發(fā)的方法,哪怕它們現(xiàn)在的性能非常差,但是十幾年、幾十年以后,它們也許會(huì)成為奠基性的工作。
吳思:我們要看我們?cè)趺炊xAI。如果泛泛的包括信息理論、動(dòng)力學(xué)系統(tǒng)分析、統(tǒng)計(jì)學(xué)習(xí)等,那么這些都是計(jì)算神經(jīng)科學(xué)每天在用的工具,它們一直在助力腦科學(xué)的發(fā)展。如果一定要強(qiáng)調(diào)最新的,比如說(shuō)深度學(xué)習(xí),那么如何將AI用于腦科學(xué)是目前的一個(gè)研究熱點(diǎn)。國(guó)際上有多個(gè)組,也包括清華的胡曉林老師,大家把視覺(jué)系統(tǒng)當(dāng)成一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò),然后訓(xùn)練這個(gè)深度學(xué)習(xí)網(wǎng)絡(luò),同時(shí)加入一些生物學(xué)的約束,然后用對(duì)比的方法看這個(gè)系統(tǒng)能學(xué)習(xí)到什么,進(jìn)而回答生物視覺(jué)認(rèn)知的問(wèn)題。
唐華錦:我補(bǔ)充一下吳思老師講的,在傳統(tǒng)上AI提供了很重要的大數(shù)據(jù)分析工具,視覺(jué)神經(jīng)、視覺(jué)皮層,現(xiàn)在的AI提供了很重要的大數(shù)據(jù)工具,尤其是在高通量的腦成像方面,建立非常精細(xì)的腦模型,AI大數(shù)據(jù)起到重要的作用。還有實(shí)時(shí)的腦活動(dòng)的分析上,比如斑馬魚的活動(dòng),如何同時(shí)實(shí)時(shí)記錄以及把這些神經(jīng)元的活動(dòng)匹配到那些神經(jīng)元上,這是大量AI深度學(xué)習(xí)幫助腦科學(xué)家在分析數(shù)據(jù)、統(tǒng)計(jì)數(shù)據(jù)上,包括三維重建,包括樹突、軸突之間連接的結(jié)構(gòu)也會(huì)起到非常重要的作用,AI還是提供了很好的工具在深入的解釋上面。
(雷鋒網(wǎng))、(雷鋒網(wǎng))、(雷鋒網(wǎng))
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。