1
本文作者: 溫曉樺 | 2015-11-10 15:34 |
據(jù)國(guó)外媒體報(bào)道,谷歌于周一發(fā)布全新人工智能系統(tǒng)TensorFlow。該系統(tǒng)可被用于語(yǔ)音識(shí)別或照片識(shí)別等多項(xiàng)機(jī)器深度學(xué)習(xí)領(lǐng)域,主要針對(duì)2011年開發(fā)的深度學(xué)習(xí)基礎(chǔ)架構(gòu)DistBelief進(jìn)行了各方面的改進(jìn),它可在小到一部智能手機(jī)、大到數(shù)千臺(tái)數(shù)據(jù)中心服務(wù)器的各種設(shè)備上運(yùn)行。
更重要的是,谷歌表示,TensorFlow將完全開源,任何人都可以用。所以,這其中有幾個(gè)意思?
關(guān)于TensorFlow的前世今生
TensorFlow是谷歌研發(fā)的第二代人工智能學(xué)習(xí)系統(tǒng),而第一代的DistBelief比這個(gè)要早好多年。
DistBelief誕生于2011年,它是谷歌推出的第一代內(nèi)部深度學(xué)習(xí)結(jié)構(gòu),能夠幫助谷歌利用自家的數(shù)據(jù)中心構(gòu)建大型的神經(jīng)網(wǎng)絡(luò),主要應(yīng)用于人工智能的開發(fā),比如語(yǔ)音識(shí)別、圖片搜索等等。
但是,DistBelief本身存在一些技術(shù)上的短板,對(duì)谷歌的人工智能發(fā)展仍有一些限制。如谷歌高級(jí)研究員Jeff Dean和技術(shù)主管Rajat Monga表示,DistBelief關(guān)注的重心是神經(jīng)網(wǎng)絡(luò),而且與谷歌內(nèi)部的基礎(chǔ)架構(gòu)聯(lián)系緊密。也就是說(shuō),該系統(tǒng)“幾乎不可能與外部共享研究代碼”,而且使用起來(lái)比較難設(shè)置。
而TensorFlow正是基于第一代DistBelief進(jìn)行開發(fā)的,其命名來(lái)源于本身的運(yùn)行原理,Tensor(張量)意味著N維數(shù)組,F(xiàn)low(流)意味著基于數(shù)據(jù)流圖的計(jì)算,TensorFlow即為張量從圖象的一端流動(dòng)到另一端——將復(fù)雜的數(shù)據(jù)結(jié)構(gòu)傳輸至人工智能神經(jīng)網(wǎng)中進(jìn)行分析和處理。
相比較之下,作為谷歌第二代人工智能系統(tǒng),TensorFlow更快、更智能化,也更加靈活,可以更加輕松地應(yīng)用于谷歌的新產(chǎn)品以及支持技術(shù)研究。按某些標(biāo)準(zhǔn)計(jì)算,TensorFlow的運(yùn)行速度相當(dāng)于DistBelief的3倍。
此外,TensorFlow一大亮點(diǎn)是支持異構(gòu)設(shè)備分布式計(jì)算,它能夠在各個(gè)平臺(tái)上自動(dòng)運(yùn)行模型,從電話、單個(gè)CPU / GPU到成百上千GPU卡組成的分布式系統(tǒng)。也就是說(shuō),任何基于梯度的機(jī)器學(xué)習(xí)算法都能夠受益于TensorFlow的自動(dòng)分化(auto-differentiation)。
谷歌為什么敢開源?
鑒于TensorFlow系統(tǒng)的強(qiáng)大功能,加上谷歌正計(jì)劃在TensorFlow的基礎(chǔ)上發(fā)布ImageNet計(jì)算機(jī)視覺模型,理論上使用谷歌的樣本模型架構(gòu)的話,就能很快地開始使用機(jī)器學(xué)習(xí)技術(shù),因此,它可謂谷歌在計(jì)算機(jī)智能應(yīng)用方面的殺手锏。不過(guò),谷歌公司表示,開源該系統(tǒng)并不會(huì)危及公司的戰(zhàn)略,而且還是會(huì)讓公司保持優(yōu)勢(shì)。為什么呢?
通過(guò)谷歌最新公布的白皮書TensorFlow: Large-Scale Machine Learning on Heterogeneous Systems可見,雖然該系統(tǒng)轉(zhuǎn)為開源,但這次開源的TensorFlow是單機(jī)實(shí)現(xiàn),其最有價(jià)值的分布式數(shù)據(jù)流實(shí)現(xiàn),并沒有開源。也就是說(shuō),谷歌此舉還是留下了一些能保持自身獨(dú)特性的東西,比如巨量的數(shù)據(jù)、可以運(yùn)行該軟件的計(jì)算機(jī)網(wǎng)絡(luò),以及一個(gè)龐大的可以調(diào)整算法的人工智能專家團(tuán)隊(duì)。
谷歌開源的做法,其實(shí)和Facebook開源人工智能研究的舉措相類似。深度學(xué)習(xí)系統(tǒng)或軟件不是一裝上就能用的,它在發(fā)布前期需要通過(guò)使用者數(shù)據(jù)進(jìn)行很多測(cè)試、調(diào)整,顧名思義就是一個(gè)學(xué)習(xí)的過(guò)程。Facebook開放人工智能研究就是因?yàn)槿狈ψ约旱囊苿?dòng)操作系統(tǒng)和通信渠道,沒有什么途徑來(lái)檢測(cè)產(chǎn)品,唯有通過(guò)與其他公司組織合作,來(lái)完善創(chuàng)新。
同樣,如果谷歌沒有工程師來(lái)為其進(jìn)行數(shù)百萬(wàn)個(gè)參數(shù)的調(diào)整,那么谷歌這次放出的深度學(xué)習(xí)算法的用途就極為有限。專家表示,調(diào)整這些參數(shù)需要不斷試錯(cuò),初次接觸的人要花費(fèi)很長(zhǎng)時(shí)間。谷歌也需要通過(guò)放出這套系統(tǒng)吸引更多研究人員,從而為其找到新的用武之地,并進(jìn)行改進(jìn)。
據(jù)報(bào)道,谷歌2011年展開了一個(gè)試圖訓(xùn)練神經(jīng)網(wǎng)絡(luò)的Google Brain項(xiàng)目。Google Brain在當(dāng)時(shí)擁有1.6萬(wàn)個(gè)多個(gè)微處理器,創(chuàng)建了一個(gè)有數(shù)十億連接的神經(jīng)網(wǎng)絡(luò),在這個(gè)項(xiàng)目研究中,該網(wǎng)絡(luò)結(jié)果觀看了千萬(wàn)數(shù)量級(jí)的YouTube圖像,并從圖像中自主辨識(shí)出了“貓”。研究人員表示:“在訓(xùn)練中,我們從未告訴它‘這是一只貓’?;旧峡梢哉f(shuō),它發(fā)明了貓這個(gè)概念?!?/p>
TensorFlow的未來(lái)
2004年,Google創(chuàng)始人Larry Page和Sergey Brin曾預(yù)言道:“計(jì)算機(jī)將會(huì)被植入人類大腦,搜索會(huì)成為一種自主進(jìn)行的行為?!?1年之后的今天,Google沒有將搜索功能植入大腦,但該公司將搜索機(jī)器變成一個(gè)人工智能大腦?!斑@是一種能夠讓研究人員的創(chuàng)意直接轉(zhuǎn)化成產(chǎn)品的工具,以后研究人員或者就無(wú)須再為什么新想法重新編寫代碼了?!?/p>
這是谷歌未來(lái)的愿景,而TensorFlow就是通向這個(gè)未來(lái)的里程碑之一。開源TensorFlow能夠加速谷歌在人工智能技術(shù)的部署,幫助該公司在人工智能發(fā)展日益重要的未來(lái)?yè)屨几嗟闹鲗?dǎo)權(quán)。
不過(guò)當(dāng)然,開源就存在著多方合作的可能,數(shù)據(jù)的資源共享、技術(shù)研究的交流碰撞……谷歌的發(fā)展同樣也會(huì)帶動(dòng)業(yè)界的技術(shù)整體發(fā)展。多年以前人們就知道開源的重要性,正如開源硬件公司Arduino CEO Musto所言:“我們需要開源,我們需要社群的智慧。”
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。