4
本文作者: 潔穎 | 2016-05-19 11:52 |
谷歌設計了用于驅動深層神經(jīng)網(wǎng)絡的計算機芯片,深層神經(jīng)網(wǎng)絡的人工智能技術重新發(fā)明了互聯(lián)網(wǎng)服務運營方式。
美國時間18號上午,在谷歌I/O 2016,CEO桑德爾·皮蔡(Sundar Pichai)表示,谷歌設計了一個ASIC(Application Specific Integrated Circuits:專用集成電路),專門針對深層神經(jīng)網(wǎng)絡。這些硬件和軟件的網(wǎng)絡,可以通過分析大量的數(shù)據(jù)學習特定任務。谷歌使用神經(jīng)網(wǎng)絡來識別照片里的物體和面孔、理解你對Android手機說出的命令、或者翻譯語言文本。該技術甚至開始改變谷歌的搜索引擎。
谷歌將其芯片稱為張量處理單元(Tensor Processing Unit:簡稱TPU),因為它支撐著TensorFlow(研發(fā)的第二代人工智能學習系統(tǒng)),軟件引擎驅動其深度學習服務。
去年秋天,谷歌發(fā)布了TensorFlow的開放源代碼許可證,這意味著公司之外的任何人都可以使用,甚至修改這個軟件引擎。谷歌不會共享其設計的TPU,但外人可以通過不同的谷歌云服務利用其機器學習硬件和軟件。
谷歌只是將深度學習加入到廣泛的互聯(lián)網(wǎng)服務的眾多公司之一,還有Facebook、微軟和Twitter。通常,這些互聯(lián)網(wǎng)巨頭推動他們的神經(jīng)網(wǎng)絡與圖形處理單元,或GPU,如芯片制造商NVIDIA。但包括微軟在內(nèi)的一些公司,也正在探索現(xiàn)場可編程門陣列(field programmable gate arrays:簡稱FPGA),可以編程為特定任務的芯片。據(jù)谷歌所說,驅動在線服務的數(shù)據(jù)中心內(nèi)部的海量硬件機架,TPU板就像硬盤驅動器一樣安裝到相同的插槽,對比其他的硬件,它提供了“一系列每瓦數(shù)量級更好的優(yōu)化性能的機器學習”解決方案?!癟PU是專為機器學習應用而設,讓芯片更加兼容的減少計算精度,這意味著每個操作它需要的晶體管更少?!惫雀柙诓┛臀恼轮邪l(fā)布。 “正因為如此,我們可以把每秒的操作更多地集成硅,使用更復雜和強大的機器學習模型,更快速地應用這些模型,讓用戶更為迅速獲得更智能的結果?!?/p>
這意味著,除其他事項外,谷歌使用芯片的方式不像Nvidia,也不像其他公司使用更少的芯片。同時我們還可以看出,谷歌希望打造自己的芯片,對芯片制造商來說是個壞消息,特別是世界上最大的:英特爾。英特爾處理器驅動著谷歌內(nèi)部龐大的計算機服務器,而英特爾的煩惱在于,谷歌有一天會設計自己的中央處理器。
via wired
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。