2
本文作者: 思睿 | 2015-02-26 12:05 |
去年,Google斥資約4億美元投資了一家名不見經(jīng)傳的人工智能公司DeepMind。自那時起,DeepMind就開始“閉門造車”,對外界透露的信息已經(jīng)相當(dāng)守口如瓶了。但這里有一件事是我們肯定知道的:Google利用人工智能公司DeepMind AI的研究成果,構(gòu)建了一套人工智能系統(tǒng),能夠?qū)W習(xí)并自主控制電子游戲,其不需要人指揮,接收簡單指令后就可自主操作游戲。
根據(jù)今天在科學(xué)雜志《自然》上發(fā)表的新研究,Google的軟件確實做的不錯,在Atari 2600的一系列游戲的試玩中,Google AI在大多數(shù)時候的表現(xiàn)都非常接近人類的水平。
DeepMind軟件使用兩個AI技術(shù),一個叫深度學(xué)習(xí)(Deep learning); 另一個叫做深度強化學(xué)習(xí)(Deep reinforcement learning)。深度學(xué)習(xí)技術(shù)已廣泛應(yīng)用于Google內(nèi)部,以及諸如Facebook和微軟等公司中。該技術(shù)可幫助用于感知——幫助Android理解你所說的內(nèi)容,而Facebook則知道你剛剛上傳的照片是誰。但是直到現(xiàn)在,都沒有人像Google一樣合并了深度學(xué)習(xí)和強化學(xué)習(xí)。
DeepMind的AI技術(shù)可讓其從環(huán)境中學(xué)習(xí),參照以前的處理方式并調(diào)整行為。與此前的人工智能系統(tǒng)相比,這是一次巨大飛躍。微軟、IBM、Clarifai、MetaMind開發(fā)的主流圖像識別系統(tǒng)一般需要人類監(jiān)督,對圖片進(jìn)行注釋,才能學(xué)習(xí)如何識別。
通過合并這兩種技術(shù),Google建立了一個通用的學(xué)習(xí)算法,該算法可適用于許多其他的任務(wù)。所以此技術(shù)一旦足夠成熟,將會被Google用于其Google X實驗室的其他項目以及自動駕駛技術(shù)和機器人項目。
Google的人工智能研究人員Itamar Arel也向人們證實了,隨著該技術(shù)的不斷改善和提高他們也將會把這項技術(shù)運用于Google的機器人。他認(rèn)為,DeepMind的技術(shù)在18至24個月的時間內(nèi)將可用于嘗試在真實世界的機器人上做出試驗。
言歸正傳,Google的人工智能軟件在Atari 2600的測試中,在49個游戲中有29個游戲獲得了75%的專業(yè)測試的成績。
《自然》在文中并沒有介紹任何新的技術(shù)突破,但它表明,隨著DeepMind的技術(shù)更廣泛的應(yīng)用會發(fā)生什么?!拔覀儗酶蟮纳窠?jīng)網(wǎng)絡(luò),我們也會想出更好的訓(xùn)練制度。”
DeepMind創(chuàng)始人Demis Hassabis不會告訴我們Google除了嘗試在Atari游戲機上測試以外,是否還有測試其他的項目,但很明顯,Atari 2600的工作僅僅是他們的一個開端。我們期待這項技術(shù)的后續(xù)研發(fā)進(jìn)展,也會持續(xù)關(guān)注這個項目。
via wired
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。