1
本文作者: 老王 | 2016-11-07 20:47 |
今日,DeepMind CEO Demis Hassabis 在 Twitter 上發(fā)布聲明:他們正在全力提高 AlphaGo 的智能程度,全新版 AlphaGo 將在 2017 年復出下棋。DeepMind 會在近期內(nèi)公布更多信息。
隨后樊麾也在微博上發(fā)文稱 AlphaGo 的棋力得到了巨大的提升。
樊麾現(xiàn)任法國圍棋隊總教練,曾三度獲得歐洲冠軍,是第一位與 AlphaGo 交手的職業(yè)棋手,去年 10 月,他在一場閉門比賽中 0 比 5 敗給機器。隨后樊麾加盟了DeepMind團隊,擔任專職陪練。
今年 3 月李世石與 AlphaGo 大戰(zhàn)之后,柯杰非常期待挑戰(zhàn) AlphaGo。國家體育總局棋牌運動管理中心黨委書記楊俊安曾在公開場合披露柯潔將挑戰(zhàn) AlphaGo,消息一出被 DeepMind 否認。據(jù)業(yè)內(nèi)人消息,中國棋院確實與 DeepMind 達成對戰(zhàn)協(xié)議,但由于特殊原因,遲遲未能公布。因此,柯潔在明年對戰(zhàn) AlphaGo 的概率非常大。
此前田淵棟在《AlphaGo 為什么那么厲害?》一文中提到:
與之前的圍棋系統(tǒng)相比,AlphaGo 較少依賴圍棋的領域知識,但還遠未達到通用系統(tǒng)的程度。職業(yè)棋手可以在看過了寥寥幾局之后明白對手的風格并采取相應策略,一位資深游戲玩家也可以在玩一個新游戲幾次后很快上手,但到目前為止,人工智能系統(tǒng)要達到人類水平,還是需要大量樣本的訓練的。
業(yè)內(nèi)人士分析,AlphaGo 隱退的這一年間,它可能會進行大量的樣本訓練,應用增強學習不斷與自己“左右手互博”:在電腦里自行模擬,產(chǎn)生新的棋局,使得收集到的經(jīng)驗和樣本變得更多,逐步增強自己的能力。
與此同時,田淵棟也解釋到,樣本訓練固然重要,但動態(tài)實戰(zhàn)經(jīng)驗所起到的作用可能會更大。
在 AlphaGo 中,增強學習(Reinforcement Learning)所扮演的角色并沒有想像中那么大。在理想情況下,我們希望人工智能系統(tǒng)能在對局中動態(tài)地適應環(huán)境和對手的招式并且找到辦法反制之,但是在 AlphaGo 中增強學習更多地是用于提供更多質(zhì)量更好的樣本,給有監(jiān)督學習(Supervised Learning)以訓練出更好的模型。
出于這方面的考量,DeepMind 把樊麾等頂尖棋手招入麾下給 AlphaGo 做陪練,專門進行動態(tài)實戰(zhàn)訓練,至于效果如何,暫時還無法得知。IBM 資深工程師兼弈城業(yè)余 4 段棋手 Zhuang Zhuang 向雷鋒網(wǎng)透露:
AlphaGo 對戰(zhàn)李世石時是 V18 版,現(xiàn)在為 V20 版,明年初正式發(fā)布即便是 V21 版也不奇怪。從表面來看,至少三個版本的更迭大致可以看出 AlphaGo 的升級速度相對較快,實力應該有著不少提升。
Zhuang Zhuang 指出:
與機器交手的心態(tài)很重要,這不同于和真人對戰(zhàn)。職業(yè)棋手在準備重大比賽的時候,可以研究對手的棋風偏好,可以準備一些布局套路,對局時可以在一定程度上推測對手的選擇,但這些對 AlphaGo 都不管用。AlphaGo 的棋風是什么?其實不是那么容易說清楚,但是有一點應該是公認的,就是價值判斷絕大部分情況下超過人類棋手,它的選擇沒有感情,不是基于棋風,是基于勝率、價值。當棋手面對 AlphaGo 這樣強勁對手,最佳策略就是不斷追求最善、最直接的一手,這樣才能最大化勝率。在這期間,棋手應該多與冷冰冰的機器系統(tǒng)交戰(zhàn),形成應對機器棋手的獨特心態(tài)。
除了 AlphaGo 外, Zen 圍棋 AI 目前也已升級到了 V13,智能程度不俗??梢灶A見未來我們看到的不僅是 AI 與人之間的較量,甚至還有各公司水平超越人類的圍棋 AI 系統(tǒng)之間的對決。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。