丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給三川
發(fā)送

0

One-Page AlphaGo --十分鐘看懂 AlphaGo 的核心算法!

本文作者: 三川 2017-05-23 16:42
導(dǎo)語:對《自然》發(fā)表的知名 AlphaGo 論文的要點總結(jié)。

One-Page AlphaGo --十分鐘看懂 AlphaGo 的核心算法!

雷鋒網(wǎng)按:本文作者夏飛,清華大學(xué)與卡內(nèi)基梅隆大學(xué)畢業(yè),現(xiàn)于谷歌從事技術(shù)研發(fā)工作。本文是對《自然》上發(fā)表的知名論文“Mastering the game of Go with deep neural networks and tree search”進行的總結(jié),對 AlphaGo 的算法結(jié)構(gòu)進行了概括。原總結(jié)文用英語寫就,經(jīng)雷鋒網(wǎng)編譯,閱讀原文請點此。

下文概括了圍棋借助人工智能在 2016 年實現(xiàn)的突破。

圍棋是一個完全信息博弈問題。而完全信息博弈,通常能被簡化為尋找最優(yōu)值的樹搜索問題。它含有 b 的 d 次方個可能分支,在國際象棋中 b≈35,d≈80;而在圍棋中 b≈250,d≈150。很顯然,對于圍棋,用窮舉法或簡單的尋路算法(heuristics)是行不通的。但有效的方法是存在的:

  • 從策略(policy) P(a|s) 中取樣 action,降低搜索廣度

  • 通過位置評估降低搜索深度

  • 把策略和值用蒙特卡洛樹搜索(MCTS)結(jié)合起來。

通常的步驟是:

  • 用一個 13 層的 CNN,直接從人類棋步中訓(xùn)練一個監(jiān)督學(xué)習(xí)策略網(wǎng)絡(luò) Pσ。輸入為 48 x 19 x 19 的圖像(比方說,它的組成棋子顏色 是 3 x 19 x 19),輸出是使用 softmax 層預(yù)測的全部落子的概率。精確度是 55.7%。

  • 訓(xùn)練一個能在運行時快速取樣 action 的快速策略 Pπ。這會用一個基于小型模式特征的線性 softmax。精確度是 24.2%,但它計算一次落子只用 2 微秒,而不像 Pσ 需要 3 毫秒。

  • 訓(xùn)練一個增強學(xué)習(xí)策略網(wǎng)絡(luò) Pρ ,通過優(yōu)化博弈結(jié)果來進一步提升監(jiān)督策略網(wǎng)絡(luò)。這把策略網(wǎng)絡(luò)向贏棋優(yōu)化,而不是優(yōu)化預(yù)測精確度。本質(zhì)上,Pρ 與 Pσ 的結(jié)構(gòu)是一樣的。它們的權(quán)重使用相同值 ρ=σ 初始化。對弈的兩個選手,是當前策略網(wǎng)絡(luò) Pρ 和隨機(防止過擬合)選擇的此前的策略網(wǎng)絡(luò)迭代。

  • 訓(xùn)練一個價值網(wǎng)絡(luò)(value network)Vθ,來預(yù)測強化學(xué)習(xí)策略網(wǎng)絡(luò)自己和自己下棋的贏家。該網(wǎng)絡(luò)的架構(gòu)和策略網(wǎng)絡(luò)類似,但多出一個特征平面(當前玩家的顏色),并且輸出變成了單一預(yù)測(回歸,均方差損失)。根據(jù)完整棋局來預(yù)測對弈結(jié)果,很容易導(dǎo)致過擬合。這是由于連續(xù)落子位置之間高度相關(guān),只有一子之差。因此,這里使用了強化學(xué)習(xí)策略網(wǎng)絡(luò)自己與自己對弈新生成的數(shù)據(jù)。該數(shù)據(jù)從包含 3000 萬個不同位置的獨立棋局中抽取。

  • 把策略網(wǎng)絡(luò)、價值網(wǎng)絡(luò)、快速策略和蒙特卡洛樹搜索結(jié)合起來。一個標準的蒙特卡洛樹搜索過程包含四步:選擇、擴展、評估、備份。為了讓大家更容易理解,我們只粗略講了講它如何在模擬中選擇狀態(tài)的部分(如對數(shù)學(xué)感興趣,請到原始論文中找公式)。

狀態(tài)分數(shù)=價值網(wǎng)絡(luò)輸出+快速運行(fast rollout)的策略結(jié)果+監(jiān)督學(xué)習(xí)策略網(wǎng)絡(luò)輸出

高狀態(tài)得分(或者說落子)會被選擇。價值網(wǎng)絡(luò)輸出和快速運行策略結(jié)果是評估函數(shù),在葉子節(jié)點進行評估(注意,為了評估快速運行,需要一直到最后一步)。監(jiān)督學(xué)習(xí)策略網(wǎng)絡(luò)輸出是一個當前階段的 action 概率,充作選取分數(shù)的獎勵分。該分數(shù)會隨訪問次數(shù)而退化,以鼓勵探索。注意強化學(xué)習(xí)策略網(wǎng)絡(luò)只被用于輔助,來生成價值網(wǎng)絡(luò),并沒有直接在蒙特卡洛樹搜索中使用。

到這就結(jié)束了,以上就是戰(zhàn)勝了人類的 AlphaGo 算法!

via zhihu,雷鋒網(wǎng)編譯

相關(guān)文章:

4.5小時鏖戰(zhàn),柯潔1/4 子惜敗AlphaGo

王小川評AlphaGo 2.0:和1.0原理大不同 更接近于人

28 天自制你的 AlphaGo(一)

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

One-Page AlphaGo --十分鐘看懂 AlphaGo 的核心算法!

分享:
相關(guān)文章

用愛救世界
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說