0
雷鋒網(wǎng)AI科技評論按:前幾天我們剛剛強勢圍觀了英偉達發(fā)布專門為機器學習設計的V100 GPU,成倍的性能提升讓人眼紅,也讓人為谷歌的TPU捏一把汗。但是谷歌也沒閑著,雷鋒網(wǎng)AI科技評論了解到,計算機架構(gòu)方面的重量級人物,加州伯克利大學的David Patterson教授已經(jīng)公開宣布了自己加入谷歌TPU團隊的消息。另外,雖然谷歌TPU團隊已經(jīng)有多人集體出走自行成立公司做芯片研發(fā),但這另一方面也表明了TPU會作為獨立的一項商品走上計算硬件市場。好戲才剛剛開場。
2016年5月,加州伯克利大學的David Patterson教授決定退休了。學校給他舉辦了一個退休典禮,紀念他在計算機架構(gòu)方面的40年學術生涯。Patterson教授自己做了一個視頻,從他高中和大學時訓練摔跤、在加州大學洛杉磯分校學習數(shù)學專業(yè),一直記錄到在休斯頓飛機公司找到工作,然后在伯克利的學術研究中度過了40個春秋。
Patterson教授是RISC的支持者之一。相比普通計算機,RISC(Reduced Instruction Set Computer精簡指令集計算機)通過去除不常用的單元、專注于最常用單元的方式,降低了設計制造難度,能以類似的性能大幅度降低功耗。手機用的ARM處理器就是一種RISC處理器。Patterson教授在伯克利大學帶領團隊長期進行著RISC的研究,對全世界RISC處理器的研發(fā)和相關應用做出了巨大貢獻;他與斯坦福大學John Hennessy教授合署的兩本書《計算機架構(gòu):一種量化的途徑》和《計算機的組織和設計:硬件軟件界面》自1990年來就廣泛用作研究生和本科生的課本,影響力巨大;他在2003年到2005年間是美國總統(tǒng)信息技術咨詢委員會成員,2004到2006年間任國際計算機學會主席;他還是磁盤陣列RAID的研發(fā)者之一。
合著影響全球的書,還有在國際計算機研究協(xié)會任主席,都是旁人看來很成功的事情。Patterson教授在退休典禮上向聽眾分享了他的成功秘訣:一次只做一件大事。
他的下一件大事很有可能會做得很大、非常大。
別人退休以后一般都去沙灘舒舒服服曬太陽去了,但是Patterson教授在5月退休以后,同年7月就去了谷歌。谷歌那時已經(jīng)在野心勃勃地開發(fā)一款新的芯片,想要比當時市面上的處理器至少快10倍,而且它還要能足夠全面,能夠搞定人工智能對復雜計算能力的要求。
谷歌把它稱作TPU(Tensor Processing Unit,張量計算單元),Patterson教授去谷歌擔任了主力研發(fā)人員。最近他才給伯克利大學的100多個學生和老師們講了自己在谷歌研發(fā)TPU的消息,這時他的退休典禮都快滿一周年了。
“4年前谷歌內(nèi)部就有這種擔心,然后公司高層出面做了決定”。他們擔心,如果每一個安卓用戶每天有三分鐘的對話要通過谷歌的機器學習技術進行翻譯的話,“我們現(xiàn)有的數(shù)據(jù)中心可能需要再翻一倍”。說這話的時候,今年69歲的Patterson教授身上正穿著谷歌大腦文化衫。
谷歌母公司Alphabet購買資產(chǎn)的支出已經(jīng)達到了每年10億美元,很大一部分都用來新建數(shù)據(jù)中心?,F(xiàn)在數(shù)據(jù)中心有了一個新的主題,谷歌把它叫做“人工智能的復興”。深度神經(jīng)網(wǎng)絡,也就是能夠運行特定的模型,然后隨著訓練數(shù)據(jù)的變多和變復雜來不斷學習、不斷變得更聰明的計算機,正渴求著計算效率的革命性提升。
Google上個月發(fā)布了一份關于TPU性能的報告,Patterson教授就是核心作者之一。5月4日的時候,Patterson教授也在斯坦福大學演講,講述了這份報告。報告中說,與同一代的英特爾處理和英偉達計算卡相比,TPU不僅運算速度要高15到30倍,相同功耗下的計算能力更是它們的30到80倍。
這份由75位工程師撰寫的報告,也會提交給下個月在多倫多舉行的計算機體系結(jié)構(gòu)國際研討會(ISCA)。這份報告是Patterson教授在谷歌的首演作品。他每周去山景城的谷歌總部一天、去舊金山的辦公室兩天。他的直接主管是在谷歌工作了18年的老將、Google Brain的總負責人Jeff Dean。
這并不是Patterson教授第一次幫谷歌做事,他2013到2014年學術休假的時候就在谷歌做了一些工作。這次,他作為資深工程師加入谷歌TPU開發(fā)項目。他加入的時候距谷歌首次在數(shù)據(jù)中心中使用TPU剛剛一年,距Patterson教授從學校退休僅兩個月。
Patterson教授是一個從來不喜歡閑著的人。2013年的時候他參加了一項舉重比賽,還打破了他那個年齡段成績的加州記錄。
Mark Hill博士說:“現(xiàn)在回過頭來想,他不可能真的退休,我們只不過把那個晚會稱作退休典禮而已?!彼荘atterson教授1987年的博士生,也是典禮上的致辭者之一。
Hill博士現(xiàn)在是威斯康星大學麥迪遜分校計算機系的主任,在他看來,Patterson教授在計算機架構(gòu)方面是“20世紀后50年里最杰出的幾個人之一”。他說Patterson教授與Hennessy教授合著的那本計算機架構(gòu)書是這個領域近25年來最有影響力的教科書。
谷歌聲稱TPU已經(jīng)在全公司進行了大規(guī)模測試和應用。TPU不僅用在搜索命令的執(zhí)行、地圖和導航中,去年在首爾擊敗頂尖圍棋選手李世石的AlphaGo也靠的是TPU。
不過谷歌并沒有打算在半導體市場跟Intel和NVIDIA形成正面競爭。想要使用谷歌TPU強大計算能力的外部開發(fā)者只能使用谷歌的云計算服務和TensorFlow這樣開源的機器學習庫。
“谷歌制造的新工具是為了服務自己,而不是為了服務別人的,”初創(chuàng)深度學習公司Skymind的聯(lián)合創(chuàng)始人和CEO Chris Nicholson這樣說,“他們從來就不擅長做硬件,而且我覺得他們不會把硬件作為自己的目標?!?/p>
很可能會有創(chuàng)業(yè)公司去谷歌不做的這個方向里尋找機會。TPU項目里的幾個工程師已經(jīng)和投資人Chamath Palihapitiya建立起團隊,準備成立一家起名叫Groq的創(chuàng)業(yè)公司。
TPU的生命才剛剛開始。不過目前它已經(jīng)在深度學習的第二個階段“推理”中展現(xiàn)出了高效的表現(xiàn)。第一個階段是訓練,目前據(jù)我們所知谷歌還是靠別家現(xiàn)成的處理器完成的。
不過谷歌也有對最前沿的項目保密的習慣,也許谷歌還開發(fā)了什么我們不知道的硬件。
在伯克利大學的演講的時候,有人問Patterson教授他們團隊下一步的規(guī)劃是什么,不過Patterson教授沒有上當回答他。
Patterson教授說他在谷歌學到了一件事情,就是與學術不同,他不能在公眾場合討論未來的產(chǎn)品?!拔抑荒苷f谷歌從來都不會停下來。這段經(jīng)歷挺有意義的。他們從來不會放棄,也沒有人被踢出團隊。”
原文 CNBC News,雷鋒網(wǎng)AI科技評論編譯
AI科技評論招業(yè)界記者啦!
在這里,你可以密切關注海外會議的大牛演講;可以采訪國內(nèi)巨頭實驗室的技術專家;對人工智能的動態(tài)了如指掌;更能深入剖析AI前沿的技術與未來!
如果你:
*對人工智能有一定的興趣或了解
* 求知欲強,具備強大的學習能力
* 有AI業(yè)界報道或者媒體經(jīng)驗優(yōu)先
簡歷投遞:
lizongren@leiphone.com
相關文章:
【洞見】谷歌公布TPU細節(jié)之后,AI業(yè)界怎么看?
雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。