0
本文作者: 亞萌 | 2016-12-02 20:01 |
一名 AI 專家值多少錢?
“基于我個(gè)人經(jīng)驗(yàn),一名計(jì)算機(jī)領(lǐng)域的 AI 專家對(duì)于企業(yè)的價(jià)值,至少為 500-1000 萬美元。為了爭奪這些少數(shù)的人才,正在開展競標(biāo)大戰(zhàn)?!?/p>
這是卡耐基梅隆大學(xué)計(jì)算機(jī)科學(xué)院院長 Andrew Moore 教授在 11 月 30 日美國參議院聽證會(huì)上 ,所說的話。
這場聽證會(huì)名為“AI 破曉”(The Dawn of Artificial Intelligence),由參議員泰德·科魯茲主持,主題是探討人工智能當(dāng)前的形勢(shì),對(duì)政策的影響及其對(duì)商業(yè)形態(tài)的改變。共有 5 位 AI 專家出席,分別是:
Eric Horvitz(微軟研究實(shí)驗(yàn)室總經(jīng)理,人工智能伙伴關(guān)系委員會(huì)臨時(shí)共同主席)
Andrew Moore(卡耐基梅隆大學(xué)計(jì)算機(jī)科學(xué)院院長)
Andrew Futreal(德州大學(xué)安德森癌癥中心基因醫(yī)學(xué)教授)
Greg Brockman(OpenAI CTO及其聯(lián)合創(chuàng)始人)
Steve Chien(加州理工學(xué)院、NASA 噴氣推進(jìn)實(shí)驗(yàn)室高級(jí)研究科學(xué)家)
在 Moore 教授看來,美國政府應(yīng)該從高中階段開始為人工智能產(chǎn)業(yè)積蓄研究人員了,而這個(gè)人才儲(chǔ)備需求為 100 萬名高中生。這并不是 Moore 教授一個(gè)人的觀點(diǎn),吳恩達(dá)也表示贊同。
無獨(dú)有偶,僅隔一天,F(xiàn)acebook 的博客上發(fā)布了一條新消息,放出大神 Yann LeCun 親自講解 AI 知識(shí)的三彈視頻。然而如果 AI 領(lǐng)域的專業(yè)讀者,稍微點(diǎn)開視頻一看,便知道這好像是一個(gè)高中老師在講科普課的風(fēng)格。
三彈視頻湊成一個(gè)系列,風(fēng)格十分活潑,Yann LeCun 的講解里穿插動(dòng)畫,并沒有太多技術(shù)性的內(nèi)容。LeCun 在視頻里就明確表示,這次主要是給大眾普及關(guān)于深度學(xué)習(xí)的基本原理,希望可以鼓勵(lì)年輕人、高中生對(duì)該領(lǐng)域有更多了解,激發(fā)他們來探索這一領(lǐng)域的興趣。
所以這樣看來,無論是美國的學(xué)術(shù)界、政府還是產(chǎn)業(yè)界,都普遍有一種要把 AI 的種子廣泛播種到下一代的氛圍。
雖然是科普性的視頻,但大神的思路可見一斑。就像 Moore 教授所說的,真正的 AI 專家只是非常少的一波群體,其實(shí)如今的 AI 從業(yè)者仍舊處在一個(gè)“學(xué)習(xí)”階段。
那么,到底 Yann LeCun 的三彈視頻里講了什么內(nèi)容呢?
雷鋒網(wǎng)根據(jù) Yann LeCun 講解總結(jié)成下文,供讀者參閱,底部更是附上原英文視頻。(另外在幾天前,雷鋒網(wǎng)整理了 Yann LeCun 教授在 Quora 上關(guān)于“如何自學(xué)深度學(xué)習(xí)技術(shù)”的回答,非常具有可操作性,感興趣的讀者可移步: 大神Yann LeCun親授:如何自學(xué)深度學(xué)習(xí)技術(shù)并少走彎路)
很多人,對(duì)于智能機(jī)器非常著迷,而我們的實(shí)現(xiàn)方法其實(shí)非常簡單?,F(xiàn)在我跟大家解釋一下它當(dāng)中到底是如何工作的。
其實(shí)大部分人已經(jīng)在日常生活中使用 AI 系統(tǒng)了,只不過他們都不知道而已,這里面的應(yīng)用包括自動(dòng)駕駛、購買建議、游戲等。
我們最常用的機(jī)器訓(xùn)練模型,就是監(jiān)督學(xué)習(xí)(Supervised learning)。
舉一個(gè)典型的例子,如果你想建造一個(gè)識(shí)別圖像的機(jī)器,讓它識(shí)別圖像里的狗和汽車。那么你就需要給這個(gè)機(jī)器看幾百萬張含有狗和汽車的圖片,并告訴機(jī)器里面是否有狗或汽車,這就是一個(gè)“訓(xùn)練”的過程。
在訓(xùn)練之前,這個(gè)機(jī)器只是產(chǎn)生隨機(jī)的答案,當(dāng)你給它顯示一張汽車或狗的圖片時(shí),你都不知道它會(huì)怎么回答。如果它答對(duì)了,可能只是運(yùn)氣好罷了;如它答錯(cuò)了,這時(shí)候得人為糾正一下(調(diào)參數(shù))。
所以其中的一個(gè)關(guān)鍵就是,首先就是建造一個(gè)機(jī)器系統(tǒng),然后就是調(diào)整內(nèi)部參數(shù)或者結(jié)構(gòu),這樣下一次你再展示圖片的時(shí)候,系統(tǒng)就會(huì)答出正確答案了。
這就所謂的“學(xué)習(xí)型算法”,其關(guān)鍵就是在于“調(diào)整參數(shù)”。幾百萬張圖片這樣訓(xùn)練下來,不斷地調(diào)整參數(shù),最終機(jī)器會(huì)弄清楚“汽車”和“狗”之間的區(qū)別。當(dāng)一張全新的照片給機(jī)器看時(shí),它這時(shí)多半會(huì)給出正確答案。
我們把這個(gè)過程稱為“泛化能力”(Generalization ability),指的是,機(jī)器能夠識(shí)別出跟訓(xùn)練素材相似的,但從未見過的東西(The ability to recognize things that are similar to what the machine has been trained on but has never seen)。
計(jì)算機(jī)往往依照一串指令來運(yùn)行,這一串指令就叫做“算法”(Algorithm)。清洗盤子,也是要遵循“算法”的:先從一摞盤子里選出一個(gè)放入水池中,然后擦拭清洗,然后烘干,最后放置在架子上。這個(gè)過程不斷重復(fù),就是一種很簡單的“算法”。
那么我們?nèi)绾螢閳D像識(shí)別寫一個(gè)“算法”呢?比如,如何區(qū)別圖像里的汽車和狗?
計(jì)算機(jī)通常采用的方法,是用數(shù)字來表示圖片,每一個(gè)數(shù)字代表特定區(qū)域像素的亮度。汽車的像素?cái)?shù)組和狗的像素?cái)?shù)組如圖,這樣就可以寫一段代碼來區(qū)別汽車和狗。
很多年來我們做的事情,就是建立大量的圖片庫,將已識(shí)別出的圖像和等待識(shí)別的圖像進(jìn)行比較,如果匹配上時(shí),計(jì)算機(jī)就可以判定圖片里面到底是汽車還是狗。
但問題是,這個(gè)方法所需要的模板數(shù)量太巨大了,就汽車和狗而言,需要所有可能的位置、顏色、姿態(tài)的狗和汽車,這是非常不實(shí)際的。
但機(jī)器學(xué)習(xí)不一樣,我們并不對(duì)機(jī)器進(jìn)行編程,而是用圖片對(duì)其進(jìn)行訓(xùn)練。我們來舉個(gè)最簡單的例子,讓機(jī)器區(qū)分兩個(gè)字母。我們看到下圖里,分別是字母 D 和字母 C(黑色塊構(gòu)成字母輪廓)。
每張圖片包含 9(3*3)個(gè)像素,我們分別給像素賦值,黑色=1,白色=0,從而得到兩張字母圖片的像素矩陣。
接著,我們只讓系統(tǒng)做一件很簡單的事情:計(jì)算出像素權(quán)重(Weights)之和。
具體而言,我們需要兩個(gè)部分:像素值矩陣和權(quán)重模板,讓這二者相乘得出結(jié)果。我們假定,如果結(jié)果>0,即判定為字母 C,如結(jié)果<0,即判定為字母D。
像素值矩陣很好設(shè)定,接下來就是得出一個(gè)有效的區(qū)分二者的權(quán)重模板,這是通過人工調(diào)節(jié)得到的。
當(dāng)看到字母 C 時(shí),人工告訴機(jī)器把 C 的權(quán)值調(diào)大。于是學(xué)習(xí)系統(tǒng)把字母 C 黑色像素對(duì)應(yīng)的模板的權(quán)值增加為 1,白色像素對(duì)應(yīng)的部分保持為 0。
同時(shí)將字母 D 的權(quán)值調(diào)小。
最終得到的模板權(quán)值中,正數(shù)(1)位置獨(dú)屬于字母C,負(fù)數(shù)(-1)位置獨(dú)屬于字母D。這就是一個(gè)很完美的將字母 C 和字母 D 區(qū)分的模板。
現(xiàn)在我們重新給系統(tǒng)一個(gè)字母C 的圖片,計(jì)算機(jī)將新圖與終極模板相乘,得到的 9個(gè)像素里的值,這些值相加得到的值=2。這時(shí),2>0,所以計(jì)算機(jī)判斷其為字母 C。
同樣,如果新圖是字母D,那么所得結(jié)果為-1,-1<0,所以計(jì)算機(jī)判斷其為字母D。
現(xiàn)實(shí)中的分類問題要比區(qū)別字母 C 和字母 D 更費(fèi)時(shí)、更復(fù)雜,而對(duì)模板的設(shè)定也更具有挑戰(zhàn),但是模板法是一種非?;A(chǔ)的原理。
在深度學(xué)習(xí)領(lǐng)域,我們使用一種特殊的方法:卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN) 。有趣的是,這種網(wǎng)絡(luò)結(jié)構(gòu),是受到哺乳動(dòng)物的視覺皮層啟發(fā)。
一個(gè)物體可以有多個(gè)角度的照片,比如我要給這個(gè)剪刀拍照,各個(gè)角度得到的圖片是不一樣的。
如果我要讓計(jì)算機(jī)識(shí)別出這個(gè)剪刀,那么就要以這個(gè)洞為主要特征,無論剪刀出現(xiàn)在照片的哪個(gè)位置,系統(tǒng)都能依據(jù)這個(gè)“洞”找出這個(gè)剪刀。
這個(gè)“洞”只是這個(gè)剪刀的特征之一,我們可以對(duì)一個(gè)物體提取多個(gè)特征,讓系統(tǒng)來鎖定它。CNN 的特殊之處在于,我們并不需要人工來提取這些“特征”。CNN 的第一層,有幾百個(gè)探測器(Detectors),它們自己學(xué)習(xí)并提取出幾百個(gè)“特征”。
這種自我學(xué)習(xí)的方法,應(yīng)用在很多領(lǐng)域,包括圖像識(shí)別、自動(dòng)駕駛、語音識(shí)別、翻譯等。
Yann LeCun 表示:
這個(gè)視頻不是課程,只是讓普通人能夠真正理解“深度學(xué)習(xí)”技術(shù)背后的基本原理,這或許能夠鼓勵(lì)年輕人、高中生對(duì)此有更豐富的了解,讓他們對(duì)此產(chǎn)生興趣,之后或許能在網(wǎng)上聽一些課程,甚至日后在大學(xué)里學(xué)習(xí)相關(guān)課程。
我認(rèn)為,讓公眾對(duì)深度學(xué)習(xí)技術(shù)有所了解,是很重要的。
所以,F(xiàn)acebook 已經(jīng)要在培養(yǎng)青少年人才方面發(fā)力了,雷鋒網(wǎng)大膽推測,莫非明年就要出現(xiàn)深度學(xué)習(xí)技術(shù)的高中生競賽了?
從政界、學(xué)術(shù)界到產(chǎn)業(yè)界,美國都在向著“AI 破曉”大膽邁步,中國其實(shí)不乏在 AI 領(lǐng)域的專家大牛,是否也有一天,向 Yann LeCun 一樣親切地向大眾普及 AI 知識(shí),推動(dòng)基礎(chǔ)教育的發(fā)展呢?
PS: Yann LeCun三彈視頻。
相關(guān)文章:
AI的自我重塑?看看Google、Facebook這些大公司都在做的事
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。