0
本文作者: 劉子榆 | 2017-01-19 09:47 |
雷鋒網(wǎng)按:有人將人工智能定義為“認(rèn)知計算”或者是“機(jī)器智能”,有的人將 AI 與“機(jī)器學(xué)習(xí)”混為一談。事實(shí)上,這些都是不準(zhǔn)確的,因?yàn)槿斯ぶ悄懿粏螁问侵改骋环N技術(shù)。這是一個由多學(xué)科構(gòu)成的廣闊領(lǐng)域。眾所周知, AI 的最終目標(biāo)是創(chuàng)建能夠執(zhí)行任務(wù)并且具備認(rèn)知功能的智慧體,否則它只是在人類智力范圍內(nèi)的機(jī)器。為了完成這個野望,機(jī)器必須學(xué)會自主學(xué)習(xí),而不是由人類來對每一個系統(tǒng)進(jìn)行編程。
令人興奮的是,在過去 10 年中,人工智能領(lǐng)域已經(jīng)取得了大的進(jìn)步,從自動駕駛汽車到語音識別到機(jī)器翻譯,AI 正在變得越來越好,也離我們越來越近。近日,知名風(fēng)投 Playfair Capital 風(fēng)險投資人 Nathan Benaich 在 medium 上發(fā)布文章《6 areas of AI and machine learning to watch closely》,講述了他眼中人工智能發(fā)展勢頭比較火熱的領(lǐng)域及其應(yīng)用。雷鋒網(wǎng)編譯。
強(qiáng)化學(xué)習(xí)是一種試錯(trial-and-error)的學(xué)習(xí)范式。在一個典型的 RL 中,強(qiáng)化學(xué)習(xí)需要連續(xù)選擇一些行為,而這些行為完成后會得到最大的收益。強(qiáng)化學(xué)習(xí)在沒有任何標(biāo)記,也不告訴算法應(yīng)該怎么做的情況下,先嘗試做出一些行為,得到一個結(jié)果,然后通過判斷這個結(jié)果的正誤對之前的行為進(jìn)行反饋,再由這個反饋來調(diào)整之前的行為。通過不斷的調(diào)整,算法能夠?qū)W習(xí)到在什么樣的情況下選擇什么樣的行為可以得到最好的結(jié)果。谷歌 DeepMind 就是用強(qiáng)化學(xué)習(xí)的方法在 Atari 游戲和圍棋中取得了突破性進(jìn)展。
應(yīng)用范圍:為自動駕駛汽車提供 3D 導(dǎo)航的城市街道圖,在共享模型環(huán)境下實(shí)現(xiàn)多個代理的學(xué)習(xí)和互動,迷宮游戲,賦予非玩家視頻游戲中的角色人類行為。
公司:DeepMind(谷歌),Prowler.io,Osaro,MicroPSI,Maluuba (微軟),NVIDIA,Mobileye 等。
主要研究人員: Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell(谷歌 DeepMind),Carl Rasmussen(劍橋),Rich Sutton (Alberta),John Shawe-Taylor(UCL)等等。
與判別模型不同的是,生成方法可以由數(shù)據(jù)學(xué)習(xí)聯(lián)合概率密度分布,然后求出條件概率分布作為預(yù)測的模型,即生成模型。它的基本思想是首先建立樣本的聯(lián)合概率概率密度模型,然后再得到后驗(yàn)概率,再利用其進(jìn)行分類。2014 年,蒙特利爾大學(xué)的 Ian Goodfellow 等學(xué)者發(fā)表了論文 《Generative Adversarial Nets》 ,即“生成對抗網(wǎng)絡(luò)”,標(biāo)志了 GANs 的誕生。這種生成對抗網(wǎng)絡(luò)就是一種生成模型(Generative Model),它從訓(xùn)練庫里獲取很多訓(xùn)練樣本,并學(xué)習(xí)這些訓(xùn)練案例生成的概率分布。GANs 的基本原理有 2 個模型,一個是生成器網(wǎng)絡(luò)(Generator Network),它不斷捕捉訓(xùn)練庫里真實(shí)圖片的概率分布,將輸入的隨機(jī)噪聲(Random Noise) 轉(zhuǎn)變成新的樣本。另一個叫做判別器網(wǎng)絡(luò)(Discriminator Network),它可以同時觀察真實(shí)和假造的數(shù)據(jù),判斷這個數(shù)據(jù)到底是真的還是假的。這種模型是用大規(guī)模數(shù)據(jù)庫訓(xùn)練出的, 具有比其他無監(jiān)督學(xué)習(xí)模型更好的效果。
應(yīng)用范圍:用于真實(shí)數(shù)據(jù)的建模和生成,模擬預(yù)測時間序列的可能性,比如為強(qiáng)化學(xué)習(xí)制定計劃,在圖像,視頻,音樂,自然語句等領(lǐng)域都有應(yīng)用,比如預(yù)測圖像的下一幀是什么。
公司:Twitter Cortex,Adobe, 蘋果,Prisma, Jukedeck,Creative.ai,Gluru, Mapillary,Unbabel 等。
主要研究人員:Ian Goodfellow (OpenAI) , 大神Yann LeCun 以及Soumith Chintala(Facebook AI Research),Shakir Mohamed 以及 A?ron van den Oord(谷歌 DeepMind) 等等。
記憶網(wǎng)絡(luò)指的是帶有內(nèi)存的神經(jīng)網(wǎng)絡(luò)。為了使 AI 系統(tǒng)能夠在多樣化的現(xiàn)實(shí)社會中得到更好的推廣,它們必須不斷學(xué)習(xí)新的任務(wù),并“記住”自己是如何執(zhí)行任務(wù)的。然而,傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)并不能做到這些。原因是當(dāng)它們在執(zhí)行 B 任務(wù)時,網(wǎng)絡(luò)中對于解決 A 任務(wù)的權(quán)重發(fā)生了改變。
不過,有幾種強(qiáng)大的架構(gòu)能夠賦予神經(jīng)網(wǎng)絡(luò)不同程度的記憶,比如長短期記憶網(wǎng)絡(luò) LSTM,它能夠處理和預(yù)測時間序列。還有 DeepMind 的新型機(jī)器學(xué)習(xí)算法“ 可微分神經(jīng)計算機(jī)”DNC,它將“神經(jīng)網(wǎng)絡(luò)”計算系統(tǒng)與傳統(tǒng)計算機(jī)存儲器結(jié)合在一起,這樣便于它瀏覽和理解復(fù)雜的數(shù)據(jù)。
應(yīng)用范圍:這種學(xué)習(xí)代理可以應(yīng)用到多種環(huán)境中,比如機(jī)械臂控制物體,時間序列的預(yù)測(金融市場,物聯(lián)網(wǎng)等)。
公司:Google DeepMind,NNaisense ,SwiftKey/微軟等
主要研究人員: Alex Graves, Raia Hadsell,Koray Kavukcuoglu(Google DeepMind),Jürgen Schmidhuber (IDSAI),Geoffrey Hinton(Google Brain/Toronto)等等。
大家都知道,基于大量數(shù)據(jù)集可以構(gòu)建出色表現(xiàn)的深度學(xué)習(xí)模型,比如著名的 ImageNet,作為最早的圖片數(shù)據(jù)集,它目前已有超過 1400 萬張被分類的圖片。如果沒有大數(shù)據(jù)集,深度學(xué)習(xí)模型可能就難以有良好的表現(xiàn),在諸如機(jī)器翻譯和語音識別上也難執(zhí)行復(fù)雜任務(wù)。這種數(shù)據(jù)需求在使用單個神經(jīng)網(wǎng)絡(luò)處理端到端問題時會增長,即把語音的原始音頻記錄作為“輸入→輸出”語音的文本轉(zhuǎn)錄。如果想要 AI 系統(tǒng)用來解決更多具有挑戰(zhàn)性,敏感或耗時的任務(wù),那么開發(fā)出能夠從較小的數(shù)據(jù)集學(xué)習(xí)的模型非常重要。在對小數(shù)據(jù)集進(jìn)行培訓(xùn)時,也存在一些挑戰(zhàn),比如處理異常值以及培訓(xùn)和測試之間數(shù)據(jù)分布的差異。此外,還有一種方法是通過遷移學(xué)習(xí)來完成。
應(yīng)用范圍:通過模擬基于大數(shù)據(jù)集的深層神經(jīng)網(wǎng)絡(luò)的表現(xiàn),訓(xùn)練淺層網(wǎng)絡(luò)具備同等性能,使用較少的參數(shù),但卻有深度神經(jīng)網(wǎng)絡(luò)同等性能的模型架構(gòu)(如 SqueezeNet),機(jī)器翻譯等。
公司:Geometric Intelligence/Uber,DeepScale.ai,微軟研究院, Curious AI 公司,Google,Bloomsbury AI
主要研究人員:Zoubin Ghahramani (劍橋),Yoshua Bengio(蒙特利爾大學(xué)), Josh Tenenbaum(麻省理工學(xué)院),Brendan Lake (紐約大學(xué)),Oriol Vinyals(Google DeepMind) , Sebastian Riedel (UCL) 等。
人工智能的發(fā)展依仗多項(xiàng)技術(shù)的推薦,而我們常說的 GPU 就是促進(jìn) AI 進(jìn)步的主要催化劑之一。與 CPU 不同,GPU 提供了一個大規(guī)模并行架構(gòu),可以同時處理多個任務(wù)??紤]到神經(jīng)網(wǎng)絡(luò)必須處理大量(通常是高維的) 數(shù)據(jù),在 GPU 上的訓(xùn)練比 CPU 快得多。這就是為什么 GPU 最近很受各個科技大佬追捧的原因,其中包括眾人熟知的 NVIDIA 、英特爾、高通、AMD 以及谷歌。
然而,GPU 并不是專門用于培訓(xùn)或者推理的,它們在創(chuàng)建之始是為了渲染視頻游戲中的圖形。GPU 具有超高的計算精度,但這也帶來了存儲器帶寬和數(shù)據(jù)吞吐量問題。這為包括谷歌在內(nèi)的一些大公司開辟了競競爭環(huán)境,專門為高維機(jī)器學(xué)習(xí)應(yīng)用設(shè)計和生產(chǎn)的芯片順勢而生。通過設(shè)計出新的芯片可以改善內(nèi)存帶寬等問題,或許也能具備更高的計算密度,效率和性能。人工智能系統(tǒng)給其所有者提供了更快速有效的模型,從而形成“更快,更有效的模型培訓(xùn)→更好的用戶體驗(yàn)→更多用戶參與產(chǎn)品→創(chuàng)建更大的數(shù)據(jù)集→通過優(yōu)化提高模型性能”這樣的良性循環(huán)。
應(yīng)用范圍:快速訓(xùn)練模型(尤其是在圖像上),物聯(lián)網(wǎng),云領(lǐng)域的 IaaS,自動駕駛汽車,無人機(jī),機(jī)器人等。
公司:Graphcore, Cerebras,Isocline Engineering,Google ( TPU ),NVIDIA ( DGX-1 ),Nervana Systems (Intel),Movidius ( Intel ), Scortex 等。
為人工智能生成訓(xùn)練數(shù)據(jù)通常具有挑戰(zhàn)性,但是為了讓這項(xiàng)技術(shù)可以運(yùn)用在現(xiàn)實(shí)世界中,必須要將它在多樣化環(huán)境中進(jìn)行普及。而如果在仿真環(huán)境中訓(xùn)練機(jī)器學(xué)習(xí),隨后就能把知識遷移到真實(shí)環(huán)境中。這無疑會幫助我們理解 AI 系統(tǒng)是怎么學(xué)習(xí)的,以及怎樣才能提升 AI 系統(tǒng),還會大大加速機(jī)器人的學(xué)習(xí)速度。仿真環(huán)境下的訓(xùn)練能幫助人們將這些模型運(yùn)用到現(xiàn)實(shí)環(huán)境中。
應(yīng)用范圍:學(xué)習(xí)駕駛,制造業(yè),工業(yè)設(shè)計,游戲開發(fā),智能城市等。
公司:Improbable,Unity 3D,微軟,Google DeepMind/Blizzard,OpenAI,Comma.ai,Unreal Engine,Amazon Lumberyard 等。
主要研究人員: Andrea Vedaldi (牛津大學(xué))等。
Via medium,雷鋒網(wǎng)編譯
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。