丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給矽說(shuō)
發(fā)送

2

腦芯編:窺腦究竟,織網(wǎng)造芯(二)

本文作者: 矽說(shuō) 2016-12-15 08:53
導(dǎo)語(yǔ):你有沒(méi)有想過(guò)從你看到圖像,到你得到的結(jié)論,無(wú)數(shù)的信息都已經(jīng)沒(méi)有過(guò)濾,你的腦子完成了一次將4K3D圖像壓縮成兩個(gè)字的過(guò)程,到底發(fā)生了什么事?

雷鋒網(wǎng)按:本文作者癡笑,矽說(shuō)(微信號(hào):silicon_talks)主筆。本文為《腦芯編:窺腦究竟,織網(wǎng)造芯》系列第二篇。

〈二〉幾重卷積幾重生

蜘蛛結(jié)網(wǎng),是為了捕食昆蟲(chóng);

蜘蛛俠結(jié)網(wǎng),是為了拯救世界;

碼農(nóng)Data Scientist (~ds~) 結(jié)網(wǎng),是為了——

換一個(gè)角度看世界,

英語(yǔ)叫做: Representation。

如果你只想知道一個(gè)關(guān)于神經(jīng)網(wǎng)絡(luò)的常識(shí),我認(rèn)為上面這個(gè)單詞是最不應(yīng)該錯(cuò)過(guò)的。就像每個(gè)學(xué)模擬電子學(xué)的人,其實(shí)歸根結(jié)底就是學(xué)了兩個(gè)字——放大。

話接上回,我們說(shuō)到,通過(guò)一系列乘累加和非線性激活函數(shù),我們就可以實(shí)現(xiàn)一個(gè)神經(jīng)元。而關(guān)鍵的問(wèn)題就是如何把神經(jīng)元們連起來(lái)。解決這個(gè)問(wèn)題之前,我們先要明白神經(jīng)網(wǎng)絡(luò)的作用——通過(guò)一系列線性和非線性的變化重新將輸入信息映射成為表達(dá)事物的本質(zhì)的簡(jiǎn)化特征。

如果你覺(jué)得上面一句的每個(gè)字都認(rèn)識(shí),卻不知道他在說(shuō)什么,那么我們來(lái)看一個(gè)經(jīng)典的例子——人類的視覺(jué)皮層(Visual Cortex)。

視覺(jué)皮層, 一場(chǎng)生物與AI的偉大握手

碼農(nóng)老師的生物課又來(lái)了……

你有沒(méi)有想過(guò)當(dāng)你看到生命中一個(gè)重要的人的時(shí)候,比如說(shuō)基友(碼農(nóng)怎么會(huì)有妹紙?),你是看到是他/她的鼻子,眼睛,臉上的痘痘,昨晚熬夜的黑眼圈……但是這些東西最后都只留下了一個(gè)映像——我面基了。可是你有沒(méi)有想過(guò)從你看到圖像,到你得到的結(jié)論,無(wú)數(shù)的信息都已經(jīng)沒(méi)有過(guò)濾,你的腦子完成了一次將4K3D圖像壓縮成兩個(gè)字的過(guò)程,到底發(fā)生了什么事?

腦芯編:窺腦究竟,織網(wǎng)造芯(二)

這個(gè)過(guò)程就是從信息經(jīng)過(guò)視覺(jué)皮層(神經(jīng)網(wǎng)絡(luò)??)的過(guò)程。從前到后,他經(jīng)過(guò)了幾站:

(1)始發(fā)站——視網(wǎng)膜 ,比較像是一個(gè)電子系統(tǒng)的傳感器,用來(lái)接收信號(hào);

(2)快速交流道——LGN,他是將左右眼看到的信號(hào)重新編碼后傳遞給視覺(jué)皮層,像是一個(gè)電子系統(tǒng)中的主控處理器與總線(請(qǐng)?jiān)徫也徽f(shuō)LGN的中文,因?yàn)檎f(shuō)了你也記 不住) ;

(3)第一站——主視覺(jué)區(qū)V1,第一層神經(jīng)網(wǎng)絡(luò),司“邊界檢測(cè)(Edge Detection)”一職,這可能是神經(jīng)元數(shù)量最豐富的一個(gè)區(qū)域;

(4)第二站——次視覺(jué)區(qū)V2,第二層神經(jīng)網(wǎng)絡(luò),司“基礎(chǔ)特征提取”一職,歸納視覺(jué)信號(hào)的形狀、大小、顏色、頻率……

(5)第三站—— V3,司“位置“,也是個(gè)過(guò)渡區(qū),一條線上你有些站你不知道為什么會(huì)停~

(6)第四站——V4/V5(MT)分支,深度神經(jīng)網(wǎng)絡(luò),各司“色彩/運(yùn)動(dòng)”;

(6)V4分支終點(diǎn)站1——換乘inferotemporal Cortex,近深度智能TE區(qū),司 ”目標(biāo)識(shí)別“ ~~~終于終于我認(rèn)出基友來(lái)了,撒花~~

(7)V5分支終點(diǎn)站2——換乘Parietal Cortex, 進(jìn)深度智能MST區(qū),司“空間運(yùn)動(dòng)分析”。

腦芯編:窺腦究竟,織網(wǎng)造芯(二)


視覺(jué)皮層可能是目前為止人類認(rèn)識(shí)的最透徹的大腦部分,不過(guò),好像建立在無(wú)數(shù)的活體實(shí)驗(yàn)上。。。即使如此,還是有很多未知的空間亟待生物學(xué)家探索。

不知道讀到這里,對(duì)人工智能略有了解的你有沒(méi)有覺(jué)得這堂生物課在哪里見(jiàn)過(guò)? 先做邊界檢測(cè),在再做特征提取,在進(jìn)行分類識(shí)別,這不就是大名鼎鼎的

腦芯編:窺腦究竟,織網(wǎng)造芯(二)

卷積,讓加速成為一種可能

其實(shí)在神經(jīng)網(wǎng)絡(luò)領(lǐng)域里,目前為止唯一能算的上前所未有成功的就是CNN (Convolution Neural Network,卷積神經(jīng)網(wǎng)絡(luò))。最早的CNN可以追溯到98年Yann LeCun的一篇如何識(shí)別手寫數(shù)字的paper,這里出現(xiàn)了第一個(gè)CNN的雛形LeNet:

腦芯編:窺腦究竟,織網(wǎng)造芯(二)


從結(jié)構(gòu)上來(lái),CNN繼承了視覺(jué)皮層中對(duì)信號(hào)處理“層”的概念,雖然不是那么的100%的吻合,但是CNN的初級(jí)層往往用來(lái)做“邊界檢測(cè)”這樣的簡(jiǎn)單的特征提取,而在深度層重新組合初級(jí)層的信息成為抽象的再表達(dá)(Representation),最后交給事件的發(fā)生的相關(guān)概率歸納出事物的本質(zhì)。

另外,一個(gè)比較不太準(zhǔn)確的趨勢(shì)是神經(jīng)元的數(shù)量隨層的深度逐漸減少,但是單個(gè)神經(jīng)元的粗壯程度(輸入數(shù)量)隨層的深度逐漸增加。視覺(jué)皮層也具有相似的規(guī)律,V1的數(shù)量多,但是結(jié)構(gòu)比較簡(jiǎn)單,但到了V4/V5,鏈接變得很復(fù)雜,但占的區(qū)域卻比V1小的多。

然而,這些都不是做電路的人重點(diǎn)。

對(duì)于硅工們而言,CNN獲得巨大成功的原因在于:它極大地節(jié)省了神經(jīng)網(wǎng)絡(luò)的硬件開(kāi)銷,使神經(jīng)元為單位作加速器成為了可能。

(1) CNN定義了一種更高能效的元操作——卷積核

關(guān)于卷積是什么,大家可以去參考一篇《一文讀懂卷積神經(jīng)網(wǎng)絡(luò)》(廣泛地轉(zhuǎn)載于各大公眾號(hào)間),下圖是我目前看到的最形象的卷積描述。

腦芯編:窺腦究竟,織網(wǎng)造芯(二)


該圖片源自網(wǎng)絡(luò),感謝原gif作者

其本質(zhì)就是對(duì)于一個(gè)區(qū)塊,判斷和自己系數(shù)組成的“基”區(qū)塊的相似程度,得到的分?jǐn)?shù)越高就越相似。這樣,當(dāng)一種“基區(qū)塊”被賦予一種特征是,即使用于整張圖片的特征提取,他的系數(shù)也是固定的,因此大量的系數(shù)加載操作可以被省略。同時(shí),一個(gè)固定大小的“卷積核”成為了比“乘累加”更高階、更高效的原子操作,在現(xiàn)代計(jì)算機(jī)體系結(jié)構(gòu)中,實(shí)現(xiàn)越復(fù)雜,但操作越固定的加速器,其效率和速度的提升也就越大。

(2) Pooling —— 是垃圾就要扔掉

CNN網(wǎng)絡(luò)的另一個(gè)巨大貢獻(xiàn)就是在卷積層和層之間,設(shè)置了一個(gè)”垃圾箱“,把上一層產(chǎn)生的無(wú)效信息都扔掉,避免了超大規(guī)模的數(shù)據(jù)傳輸和存儲(chǔ)。大家把這叫做Pooling,我又要來(lái)吐槽那個(gè)中國(guó)人給他取了個(gè)”池化“的名字,雖然我也找不到更好的名字,但根本無(wú)法幫助理解。Pooling的策略很多,最常見(jiàn)的是max pooling就是留個(gè)最大的,然后又其他都扔掉。

(3) “亂擼”? (ReLU)

LeNet后期發(fā)展到AlexNet后,激活函數(shù)也從sigmoid變成了ReLu,他們的圖形曲線大概如下所示。用腳趾頭也知道,Relu操作的實(shí)現(xiàn)就是把符號(hào)位為負(fù)置0就好了。至于sigmoid么,傳承自經(jīng)典機(jī)器學(xué)習(xí)回歸理論,是e指數(shù)的除法操作,編譯后簡(jiǎn)直就是一場(chǎng)噩夢(mèng),我們先把他當(dāng)作一個(gè)古老的神話就好了。

腦芯編:窺腦究竟,織網(wǎng)造芯(二)

以上種種硬件實(shí)現(xiàn)的簡(jiǎn)化,加上CNN的巨大勝利,都當(dāng)讓硅工們看到了直接從電路角度優(yōu)化的角度切入人工智能芯片的可能。但是,也發(fā)現(xiàn)了一個(gè)問(wèn)題,傳統(tǒng)的硬件加速的算法往往是做死的,比如橢圓加密,浮點(diǎn)乘除等等。但是CNN的元操作——卷積核——雖然模式固定,但是其每一層的卷積核數(shù)量和層數(shù)卻是紛繁復(fù)雜,固定的硬件并不能實(shí)現(xiàn)網(wǎng)絡(luò)的可塑性(structual plasticity)?

那該怎么辦?下一次,如何利用具有高度可編程性的CPU來(lái)配置不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)——計(jì)算機(jī)的”形與令“。就到這里,且聽(tīng)下回分解。

特別鳴謝復(fù)旦大學(xué)腦芯片研究中心提供技術(shù)咨詢,歡迎有志青年報(bào)考。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

腦芯編:窺腦究竟,織網(wǎng)造芯(二)

分享:
相關(guān)文章

專欄作者

由全球各地半導(dǎo)體行業(yè)專業(yè)人士主筆,旨在提供半導(dǎo)體業(yè)界新聞和新技術(shù)的深度解讀。
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)