丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

0

策略梯度下降過時了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

本文作者: 楊曉凡 2017-07-21 18:36
導語:讓強化學習更容易學出成果,讓機器人更容易走得順溜

雷鋒網(wǎng) AI 科技評論按:美國時間7月20日,OpenAI 剛剛通過自己的研究博客介紹了一種新的優(yōu)化算法 Proximal Policy Optimization(近端策略優(yōu)化,PPO)。據(jù)介紹,這種算法用在強化學習中時表現(xiàn)能達到甚至超過現(xiàn)有算法的頂尖水平,同時還更易于實現(xiàn)和調(diào)試。所以 OpenAI 已經(jīng)把PPO作為自己強化學習研究中首選的算法。雷鋒網(wǎng) AI 科技評論把這篇介紹 PPO 算法的博文編譯如下。

策略梯度下降過時了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

圖中就是一個 OpenAI 利用 PPO 訓練的機器人。它要學習走、跑、轉彎來嘗試接近球型的、隨機移動的目標;環(huán)境中還有一個會撞機器人的小球給它增大難度,所以它還要學會受到撞擊以后恢復平衡,甚至被撞倒以后重新站起來。

現(xiàn)有算法

近期的策略梯度的一類方法讓深度神經(jīng)網(wǎng)絡在控制任務中取得了明顯進步,電腦游戲、三維運動、圍棋都是很好的例子。但是用策略梯度的方法取得好的結果也有一些難度,因為這類方法對迭代步驟數(shù)非常敏感:如果選得太小,訓練過程就會慢得令人絕望;如果選得太大,反饋信號就會淹沒在噪聲中,甚至有可能讓模型表現(xiàn)雪崩式地下降。這類方法的采樣效率也經(jīng)常很低,學習簡單的任務就需要百萬級至十億級的總迭代次數(shù)。

為了解決方法中的這些問題,研究人員們已經(jīng)找到了 TRPO(Trust Region Policy Optimization,信任區(qū)域策略優(yōu)化)和 ACER(Sample Efficient Actor-Critic with Experience Replay,能高效采樣的帶有經(jīng)驗回放的表演者-評論者算法) 這樣的方法,對策略更新的大小做出限制或者另外的優(yōu)化。達到了這樣的效果,這些方法也就在別的方面付出了代價:ACER 比 PPO復雜得多,需要額外的代碼用于策略外的糾正以及一個回放緩沖區(qū),在 Atari 測試中的具體表現(xiàn)卻只比 PPO 勉強好一點點;TRPO 雖然在連續(xù)控制任務中很有用,但是對策略函數(shù)和價值函數(shù)或者輔助損失之間有共享參數(shù)的算法較難兼容,比如 Atari 和其它一些視覺輸入占據(jù)主要部分的任務就是這樣。

PPO

在監(jiān)督學習中,實現(xiàn)損失函數(shù)、在上面做梯度下降都很容易,而且基本上不費什么功夫調(diào)節(jié)超參數(shù)就肯定能夠得到很好的結果。但是在強化學習中想要獲得好結果就沒有這么簡單了,算法中有許多變化的部分導致難以 debug,而且需要花很大的精力在調(diào)試上才能得到好結果。PPO 則在實現(xiàn)的難易程度、采樣復雜度、調(diào)試所需精力之間取得了新的平衡,它在每一步迭代中都會嘗試計算新的策略,這樣可以讓損失函數(shù)最小化,同時還能保證與上一步迭代的策略間的偏差相對較小。

之前 OpenAI 就詳細介紹過 PPO的一個變種 (NIPS 2016 論文視頻:通過策略優(yōu)化進行深度強化學習),其中用一個自適應 Kullback–Leibler 懲罰項控制每次迭代中的策略變化程度?,F(xiàn)在介紹的這種新變種則使用了一種其它算法中罕見的全新的目標函數(shù):

策略梯度下降過時了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

信任區(qū)域更新的功能就可以通過這種目標函數(shù)得到實現(xiàn),它與隨機梯度下降兼容,而且移除了Kullback–Leibler 懲罰項及它的自適應升級功能差,從而簡化了算法。在測試中,PPO 算法在連續(xù)控制任務中取得了最好的效果,而且在 Atari 游戲測試中的表現(xiàn)幾乎與 ACER 持平;考慮到 PPO 的簡便性,這樣的結果真是令人驚喜萬分。

可控的復雜機器人

策略梯度下降過時了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

OpenAI 的研究人員們設計了具有互動能力的機器人,然后用 PPO 訓練它們的策略。在這些基于 Roboschool 環(huán)境的實驗中,可以用鍵盤給機器人設定新的目標位置;盡管輸入的目標序列與用來訓練機器人的序列不同,機器人仍然可以進行泛化。

策略梯度下降過時了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

除了 Roboschool 中這樣的簡單機器人,他們還用 PPO 教會復雜的仿真機器人走路,比如來自波士頓動力的 Atlas 的仿真模型。相比前面的雙足機器人的17個獨立關節(jié),這個模型中獨立關節(jié)的數(shù)目高達30個。也有一些其它的研究人員已經(jīng)成功借助 PPO 訓練仿真機器人用精彩的跑酷動作跨越障礙(參見雷鋒網(wǎng) AI 科技評論文章 機器人走路未必笨拙,DeepMind新方法訓練的人工智能走得就很飄逸 )。

基準模型:PPO 和 TRPO

OpenAI 一并發(fā)布了包含大小可變的、并行實現(xiàn)的 PPO 和 TRPO 的基準模型,兩者都用 MPI 作為數(shù)據(jù)傳遞模塊,Python3 和 TensorFlow 都可以支持。他們還把用于訓練上文中的機器人的預訓練模型增加到了 Roboschool 機器人動物園中。

論文地址:https://arxiv.org/abs/1707.06347 

基準模型地址: https://github.com/openai/baselines 

相關文章:

機器人走路未必笨拙,DeepMind新方法訓練的人工智能走得就很飄逸

OpenAI發(fā)布開源軟件Roboschool,模擬機器人的控制訓練

雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉載。詳情見轉載須知。

策略梯度下降過時了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

分享:
相關文章

讀論文為生

日常笑點滴,學術死腦筋
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說