丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給我在思考中
發(fā)送

0

DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了

本文作者: 我在思考中 2022-11-16 10:17
導語:AlphaZero 表明神經(jīng)網(wǎng)絡可以學到人類可理解的表征。
AlphaZero 表明神經(jīng)網(wǎng)絡可以學到人類可理解的表征。

作者 | 李梅

編輯 | 陳彩嫻

國際象棋一直是 AI 的試驗場。70 年前,艾倫·圖靈猜想可以制造一臺能夠自我學習并不斷從自身經(jīng)驗中獲得改進的下棋機器。上世紀出現(xiàn)的“深藍”第一次擊敗人類,但它依賴專家編碼人類的國際象棋知識,而誕生于 2017 年的 AlphaZero 作為一種神經(jīng)網(wǎng)絡驅(qū)動的強化學習機器實現(xiàn)了圖靈的猜想。

AlphaZero 的無需使用任何人工設計的啟發(fā)式算法,也不需要觀看人類下棋,而是完全通過自我對弈進行訓練。

那么,它真的學習了人類關于國際象棋的概念嗎?這是一個神經(jīng)網(wǎng)絡的可解釋性問題。

最近,AlphaZero 的作者 Demis Hassabis 與 DeepMind 的同事以及谷歌大腦的研究員合作了一項研究,在 AlphaZero 的神經(jīng)網(wǎng)絡中找到了人類國際象棋概念的證據(jù),展示了網(wǎng)絡在訓練過程中獲得這些概念的時間和位置,還發(fā)現(xiàn)了 AlphaZero 與人類不同的下棋風格。論文近期發(fā)表于 PNAS。

DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了
論文地址:https://www.pnas.org/doi/epdf/10.1073/pnas.2206625119



1

AlphaZero 在訓練中獲得人類象棋概念

AlphaZero 的網(wǎng)絡架構包含一個骨干網(wǎng)絡殘差網(wǎng)絡(ResNet)和單獨的 Policy Head、Value Head,ResNet 由一系列由網(wǎng)絡塊和跳躍連接(skip connection)的層構成。

在訓練迭代方面,AlphaZero 從具有隨機初始化參數(shù)的神經(jīng)網(wǎng)絡開始,反復與自身對弈,學習對棋子位置的評估,根據(jù)在此過程中生成的數(shù)據(jù)進行多次訓練。

為了確定 AlphaZero 網(wǎng)絡在多大程度上表征了人類所擁有的國際象棋概念,這項研究使用了稀疏線性探測方法,將網(wǎng)絡在訓練過程中參數(shù)的變化映射為人類可理解概念的變化。

首先將概念定義為如圖 1 中橙色所示的用戶定義函數(shù)。廣義線性函數(shù) g 作為一個探針被訓練用于近似一個國際象棋概念 c。近似值 g 的質(zhì)量表示層(線性)對概念進行編碼的程度。對于給定概念,對每個網(wǎng)絡中所有層的訓練過程中產(chǎn)生的網(wǎng)絡序列重復該過程。

DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了

圖 1:在 AlphaZero 網(wǎng)絡(藍色)中探索人類編碼的國際象棋概念。

比如,可以用一個函數(shù)來確定我方或地方是否有“主教” (?) :

DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了

當然,還有很多比這個例子更復雜的象棋概念,比如對于棋子的機動性(mobility),可以編寫一個函數(shù)來比較我方和敵方移動棋子時的得分。

在本實驗中,概念函數(shù)是已經(jīng)預先指定的,封裝了國際象棋這一特定領域的知識。

接下來是對探針進行訓練。研究人員將 ChessBase 數(shù)據(jù)集中 10 的 5 次方個自然出現(xiàn)的象棋位置作為訓練集,從深度為 d 的網(wǎng)絡激活訓練一個稀疏回歸探針 g,來預測給定概念 c 的值。

通過比較 AlphaZero 自學習周期中不同訓練步驟的網(wǎng)絡,以及每個網(wǎng)絡中不同層的不同概念探針的分數(shù),就可以提取網(wǎng)絡學習到某個概念的時間和位置。

最終得到每個概念的 what-when-where 圖,對“被計算的概念是什么”、“該計算在網(wǎng)絡的哪個位置發(fā)生”、“概念在網(wǎng)絡訓練的什么時間出現(xiàn)”這三個指標進行可視化。如圖2。

DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了

圖2:從 A 到 B 的概念分別是“對總分的評估”、“我方被將軍了嗎”、“對威脅的評估”、“我方能吃掉敵方的皇后嗎”、“敵方這一步棋會將死我方嗎”、“對子力分數(shù)的評估”、“子力分數(shù)”、“我方有王城兵嗎”。

可以看到,C 圖中,隨著 AlphaZero 變得更強,“threats”概念的函數(shù)和 AlphaZero 的表征(可由線性探針檢測到)變得越來越不相關。

這樣的 what-when-where 圖包括探測方法比較所需的兩個基線,一是輸入回歸,在第 0 層顯示,二是來自具有隨機權重的網(wǎng)絡激活的回歸,在訓練步驟 0 處顯示。上圖的結(jié)果可以得出結(jié)論,回歸精度的變化完全由網(wǎng)絡表征的變化來決定。

此外,許多 what-when-where 圖的結(jié)果都顯示了一個相同的模式,即整個網(wǎng)絡的回歸精度一直都很低,直到大約 32k 步時才開始隨著網(wǎng)絡深度的增加而迅速提高,隨后穩(wěn)定下來并在后面的層中保持不變。所以,所有與概念相關的計算都在網(wǎng)絡的相對早期發(fā)生,而之后的殘差塊要么執(zhí)行移動選擇,要么計算給定概念集之外的特征。

而且,隨著訓練的進行,許多人類定義的概念都可以從 AlphaZero 的表征中預測到,且預測準確率很高。

對于更高級的概念,研究人員發(fā)現(xiàn) AlphaZero 掌握它們的位置存在差異。首先在 2k 訓練步驟時與零顯著不同的概念是“material”和“ space”;更復雜的概念如“king_safety”、“threats”、“mobility”,則是在 8k 訓練步驟時顯著得變?yōu)榉橇悖以?32k 訓練步驟之后才有實質(zhì)增長。這個結(jié)果與圖 2 中 what-when-where 圖顯示的DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了急劇上升的點一致。

另外,大多數(shù) what-when-where 圖的一個顯著特征是網(wǎng)絡的回歸精度在開始階段增長迅速,隨后達到平穩(wěn)狀態(tài)或下降。這表明目前從 AlphaZero 身上所發(fā)現(xiàn)的概念集還只是檢測了網(wǎng)絡的較早層,要了解后面的層,需要新的概念檢測技術。



2

AlphaZero 的開局策略與人類不同

在觀察到 AlphaZero 學習了人類國際象棋概念后,研究人員進一步針對開局策略探討了 AlphaZero 對于象棋戰(zhàn)術的理解,因為開局的選擇也隱含了棋手對于相關概念的理解。

DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了

研究人員觀察到,AlphaZero 與人類的開局策略并不相同:隨著時間的推移,AlphaZero 縮小了選擇范圍,而人類則是擴大選擇范圍。

如圖 3A 是人類對白棋的第一步偏好的歷史演變,早期階段,流行將 e4 作為第一步棋,后來的開局策略則變得更平衡、更靈活。

圖 3B 則是 AlphaZero 的開局策略隨訓練步驟的演變??梢钥吹?,AlphaZero 的開局總是平等地權衡所有選擇,然后逐漸縮小選擇范圍。

DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了

圖 3:隨著訓練步驟和時間的推移,AlphaZero 和人類對第一步的偏好比較。

這與人類知識的演變形成鮮明對比,人類知識從 e4 開始逐漸擴展,而 AlphaZero 在訓練的后期階段明顯偏向于 d4。不過,這種偏好不需要過度解釋,因為自我對弈訓練是基于快速游戲,為了促進探索增加了許多隨機性。

造成這種差異的原因尚不清楚,但它反映了人類與人工神經(jīng)網(wǎng)絡之間的根本差異。一個可能的因素,或許是關于人類象棋的歷史數(shù)據(jù)更強調(diào)大師玩家的集體知識,而 AlphaZero 的數(shù)據(jù)包括了初學者級別下棋和單一進化策略。

那么,當 AlphaZero 的神經(jīng)網(wǎng)絡經(jīng)過多次訓練后,是否會出對某些開局策略顯示出穩(wěn)定的偏好?

研究結(jié)果是,許多情況下,這種偏好在不同訓練中并不穩(wěn)定,AlphaZero 的開局策略非常多樣。比如在經(jīng)典的Ruy Lopez 開局(俗稱“西班牙開局”)中,AlphaZero 在早期有選擇黑色的偏好,并遵循典型的下法,即 1.e4 e5,2.Nf3 Nc6,3.Bb5。

DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了

圖 4:Ruy Lopez 開局

而在不同的訓練中,AlphaZero 會逐漸收斂到 3.f6 和 3.a6 中的一個。此外,AlphaZero 模型的不同版本都各自顯示出對一個動作的強烈偏好,且這種偏好在訓練早期就得以建立。

這進一步證明,國際象棋的成功下法多種多樣,這種多樣性不僅存在于人與機器之間,也存在于 AlphaZero 的不同訓練迭代中。



3

AlphaZero 掌握知識的過程

那么,以上關于開局策略的研究結(jié)果,與 AlphaZero 對概念的理解有什么關聯(lián)呢?

這項研究發(fā)現(xiàn),在各種概念的 what-when-where 圖中有一個明顯的拐點,與開局偏好的顯著變化正好相吻合,尤其是 material 和 mobility的概念似乎與開局策略直接相關。

material 概念主要是在訓練步驟 10k 和 30k 之間學習的,piece mobility 的概念也在同一時期逐步融入到 AlphaZero 的 value head 中。對棋子的 material 價值的基本理解應該先于對棋子 mobility 的理解。然后 AlphaZero 將這一理論納入到 25k 到 60k 訓練步驟之間開局偏好中。

作者進一步分析了 AlphaZero 網(wǎng)絡關于國際象棋的知識的演變過程:首先發(fā)現(xiàn)棋力;接著是短時間窗口內(nèi)基礎知識的爆炸式增長,主要是與 mobility 相關的一些概念;最后是改進階段,神經(jīng)網(wǎng)絡的開局策略在數(shù)十萬個訓練步驟中得到完善。雖然整體學習的時間很長,但特定的基礎能力會在相對較短的時間內(nèi)迅速出現(xiàn)。

前國際象棋世界冠軍 Vladimir Kramnik 也被請來為這一結(jié)論提供佐證,他的觀察與上述過程一致。

最后總結(jié)一下,這項工作證明了 AlphaZero 網(wǎng)絡所學習的棋盤表示能夠重建許多人類國際象棋概念,并詳細說明了網(wǎng)絡所學習的概念內(nèi)容、在訓練時間中學習概念的時間以及計算概念的網(wǎng)絡位置。而且,AlphaZero 的下棋風格與人類并不相同。

既然我們以人類定義的國際象棋概念來理解神經(jīng)網(wǎng)絡,那么下一個問題將會是:神經(jīng)網(wǎng)絡能夠?qū)W習人類知識以外的東西嗎?

更多內(nèi)容,點擊下方關注:
掃碼添加 AI 科技評論 微信號,投稿&進群:
DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了

未經(jīng)「AI科技評論」授權,嚴禁以任何方式在網(wǎng)頁、論壇、社區(qū)進行轉(zhuǎn)載!

公眾號轉(zhuǎn)載請先在「AI科技評論」后臺留言取得授權,轉(zhuǎn)載時需標注來源并插入本公眾號名片。

雷峰網(wǎng)(公眾號:雷峰網(wǎng))

雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

DeepMind 最新發(fā)文:AlphaZero 的黑箱打開了

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說