0
本文作者: 劉子榆 | 2017-01-19 09:47 |
雷鋒網(wǎng)按:有人將人工智能定義為“認知計算”或者是“機器智能”,有的人將 AI 與“機器學習”混為一談。事實上,這些都是不準確的,因為人工智能不單單是指某一種技術。這是一個由多學科構成的廣闊領域。眾所周知, AI 的最終目標是創(chuàng)建能夠執(zhí)行任務并且具備認知功能的智慧體,否則它只是在人類智力范圍內(nèi)的機器。為了完成這個野望,機器必須學會自主學習,而不是由人類來對每一個系統(tǒng)進行編程。
令人興奮的是,在過去 10 年中,人工智能領域已經(jīng)取得了大的進步,從自動駕駛汽車到語音識別到機器翻譯,AI 正在變得越來越好,也離我們越來越近。近日,知名風投 Playfair Capital 風險投資人 Nathan Benaich 在 medium 上發(fā)布文章《6 areas of AI and machine learning to watch closely》,講述了他眼中人工智能發(fā)展勢頭比較火熱的領域及其應用。雷鋒網(wǎng)編譯。
強化學習是一種試錯(trial-and-error)的學習范式。在一個典型的 RL 中,強化學習需要連續(xù)選擇一些行為,而這些行為完成后會得到最大的收益。強化學習在沒有任何標記,也不告訴算法應該怎么做的情況下,先嘗試做出一些行為,得到一個結果,然后通過判斷這個結果的正誤對之前的行為進行反饋,再由這個反饋來調(diào)整之前的行為。通過不斷的調(diào)整,算法能夠?qū)W習到在什么樣的情況下選擇什么樣的行為可以得到最好的結果。谷歌 DeepMind 就是用強化學習的方法在 Atari 游戲和圍棋中取得了突破性進展。
應用范圍:為自動駕駛汽車提供 3D 導航的城市街道圖,在共享模型環(huán)境下實現(xiàn)多個代理的學習和互動,迷宮游戲,賦予非玩家視頻游戲中的角色人類行為。
公司:DeepMind(谷歌),Prowler.io,Osaro,MicroPSI,Maluuba (微軟),NVIDIA,Mobileye 等。
主要研究人員: Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell(谷歌 DeepMind),Carl Rasmussen(劍橋),Rich Sutton (Alberta),John Shawe-Taylor(UCL)等等。
與判別模型不同的是,生成方法可以由數(shù)據(jù)學習聯(lián)合概率密度分布,然后求出條件概率分布作為預測的模型,即生成模型。它的基本思想是首先建立樣本的聯(lián)合概率概率密度模型,然后再得到后驗概率,再利用其進行分類。2014 年,蒙特利爾大學的 Ian Goodfellow 等學者發(fā)表了論文 《Generative Adversarial Nets》 ,即“生成對抗網(wǎng)絡”,標志了 GANs 的誕生。這種生成對抗網(wǎng)絡就是一種生成模型(Generative Model),它從訓練庫里獲取很多訓練樣本,并學習這些訓練案例生成的概率分布。GANs 的基本原理有 2 個模型,一個是生成器網(wǎng)絡(Generator Network),它不斷捕捉訓練庫里真實圖片的概率分布,將輸入的隨機噪聲(Random Noise) 轉(zhuǎn)變成新的樣本。另一個叫做判別器網(wǎng)絡(Discriminator Network),它可以同時觀察真實和假造的數(shù)據(jù),判斷這個數(shù)據(jù)到底是真的還是假的。這種模型是用大規(guī)模數(shù)據(jù)庫訓練出的, 具有比其他無監(jiān)督學習模型更好的效果。
應用范圍:用于真實數(shù)據(jù)的建模和生成,模擬預測時間序列的可能性,比如為強化學習制定計劃,在圖像,視頻,音樂,自然語句等領域都有應用,比如預測圖像的下一幀是什么。
公司:Twitter Cortex,Adobe, 蘋果,Prisma, Jukedeck,Creative.ai,Gluru, Mapillary,Unbabel 等。
主要研究人員:Ian Goodfellow (OpenAI) , 大神Yann LeCun 以及Soumith Chintala(Facebook AI Research),Shakir Mohamed 以及 A?ron van den Oord(谷歌 DeepMind) 等等。
記憶網(wǎng)絡指的是帶有內(nèi)存的神經(jīng)網(wǎng)絡。為了使 AI 系統(tǒng)能夠在多樣化的現(xiàn)實社會中得到更好的推廣,它們必須不斷學習新的任務,并“記住”自己是如何執(zhí)行任務的。然而,傳統(tǒng)的神經(jīng)網(wǎng)絡并不能做到這些。原因是當它們在執(zhí)行 B 任務時,網(wǎng)絡中對于解決 A 任務的權重發(fā)生了改變。
不過,有幾種強大的架構能夠賦予神經(jīng)網(wǎng)絡不同程度的記憶,比如長短期記憶網(wǎng)絡 LSTM,它能夠處理和預測時間序列。還有 DeepMind 的新型機器學習算法“ 可微分神經(jīng)計算機”DNC,它將“神經(jīng)網(wǎng)絡”計算系統(tǒng)與傳統(tǒng)計算機存儲器結合在一起,這樣便于它瀏覽和理解復雜的數(shù)據(jù)。
應用范圍:這種學習代理可以應用到多種環(huán)境中,比如機械臂控制物體,時間序列的預測(金融市場,物聯(lián)網(wǎng)等)。
公司:Google DeepMind,NNaisense ,SwiftKey/微軟等
主要研究人員: Alex Graves, Raia Hadsell,Koray Kavukcuoglu(Google DeepMind),Jürgen Schmidhuber (IDSAI),Geoffrey Hinton(Google Brain/Toronto)等等。
大家都知道,基于大量數(shù)據(jù)集可以構建出色表現(xiàn)的深度學習模型,比如著名的 ImageNet,作為最早的圖片數(shù)據(jù)集,它目前已有超過 1400 萬張被分類的圖片。如果沒有大數(shù)據(jù)集,深度學習模型可能就難以有良好的表現(xiàn),在諸如機器翻譯和語音識別上也難執(zhí)行復雜任務。這種數(shù)據(jù)需求在使用單個神經(jīng)網(wǎng)絡處理端到端問題時會增長,即把語音的原始音頻記錄作為“輸入→輸出”語音的文本轉(zhuǎn)錄。如果想要 AI 系統(tǒng)用來解決更多具有挑戰(zhàn)性,敏感或耗時的任務,那么開發(fā)出能夠從較小的數(shù)據(jù)集學習的模型非常重要。在對小數(shù)據(jù)集進行培訓時,也存在一些挑戰(zhàn),比如處理異常值以及培訓和測試之間數(shù)據(jù)分布的差異。此外,還有一種方法是通過遷移學習來完成。
應用范圍:通過模擬基于大數(shù)據(jù)集的深層神經(jīng)網(wǎng)絡的表現(xiàn),訓練淺層網(wǎng)絡具備同等性能,使用較少的參數(shù),但卻有深度神經(jīng)網(wǎng)絡同等性能的模型架構(如 SqueezeNet),機器翻譯等。
公司:Geometric Intelligence/Uber,DeepScale.ai,微軟研究院, Curious AI 公司,Google,Bloomsbury AI
主要研究人員:Zoubin Ghahramani (劍橋),Yoshua Bengio(蒙特利爾大學), Josh Tenenbaum(麻省理工學院),Brendan Lake (紐約大學),Oriol Vinyals(Google DeepMind) , Sebastian Riedel (UCL) 等。
人工智能的發(fā)展依仗多項技術的推薦,而我們常說的 GPU 就是促進 AI 進步的主要催化劑之一。與 CPU 不同,GPU 提供了一個大規(guī)模并行架構,可以同時處理多個任務??紤]到神經(jīng)網(wǎng)絡必須處理大量(通常是高維的) 數(shù)據(jù),在 GPU 上的訓練比 CPU 快得多。這就是為什么 GPU 最近很受各個科技大佬追捧的原因,其中包括眾人熟知的 NVIDIA 、英特爾、高通、AMD 以及谷歌。
然而,GPU 并不是專門用于培訓或者推理的,它們在創(chuàng)建之始是為了渲染視頻游戲中的圖形。GPU 具有超高的計算精度,但這也帶來了存儲器帶寬和數(shù)據(jù)吞吐量問題。這為包括谷歌在內(nèi)的一些大公司開辟了競競爭環(huán)境,專門為高維機器學習應用設計和生產(chǎn)的芯片順勢而生。通過設計出新的芯片可以改善內(nèi)存帶寬等問題,或許也能具備更高的計算密度,效率和性能。人工智能系統(tǒng)給其所有者提供了更快速有效的模型,從而形成“更快,更有效的模型培訓→更好的用戶體驗→更多用戶參與產(chǎn)品→創(chuàng)建更大的數(shù)據(jù)集→通過優(yōu)化提高模型性能”這樣的良性循環(huán)。
應用范圍:快速訓練模型(尤其是在圖像上),物聯(lián)網(wǎng),云領域的 IaaS,自動駕駛汽車,無人機,機器人等。
公司:Graphcore, Cerebras,Isocline Engineering,Google ( TPU ),NVIDIA ( DGX-1 ),Nervana Systems (Intel),Movidius ( Intel ), Scortex 等。
為人工智能生成訓練數(shù)據(jù)通常具有挑戰(zhàn)性,但是為了讓這項技術可以運用在現(xiàn)實世界中,必須要將它在多樣化環(huán)境中進行普及。而如果在仿真環(huán)境中訓練機器學習,隨后就能把知識遷移到真實環(huán)境中。這無疑會幫助我們理解 AI 系統(tǒng)是怎么學習的,以及怎樣才能提升 AI 系統(tǒng),還會大大加速機器人的學習速度。仿真環(huán)境下的訓練能幫助人們將這些模型運用到現(xiàn)實環(huán)境中。
應用范圍:學習駕駛,制造業(yè),工業(yè)設計,游戲開發(fā),智能城市等。
公司:Improbable,Unity 3D,微軟,Google DeepMind/Blizzard,OpenAI,Comma.ai,Unreal Engine,Amazon Lumberyard 等。
主要研究人員: Andrea Vedaldi (牛津大學)等。
Via medium,雷鋒網(wǎng)編譯
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。