丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

0

策略梯度下降過時(shí)了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

本文作者: 楊曉凡 2017-07-21 18:36
導(dǎo)語:讓強(qiáng)化學(xué)習(xí)更容易學(xué)出成果,讓機(jī)器人更容易走得順溜

雷鋒網(wǎng) AI 科技評(píng)論按:美國時(shí)間7月20日,OpenAI 剛剛通過自己的研究博客介紹了一種新的優(yōu)化算法 Proximal Policy Optimization(近端策略優(yōu)化,PPO)。據(jù)介紹,這種算法用在強(qiáng)化學(xué)習(xí)中時(shí)表現(xiàn)能達(dá)到甚至超過現(xiàn)有算法的頂尖水平,同時(shí)還更易于實(shí)現(xiàn)和調(diào)試。所以 OpenAI 已經(jīng)把PPO作為自己強(qiáng)化學(xué)習(xí)研究中首選的算法。雷鋒網(wǎng) AI 科技評(píng)論把這篇介紹 PPO 算法的博文編譯如下。

策略梯度下降過時(shí)了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

圖中就是一個(gè) OpenAI 利用 PPO 訓(xùn)練的機(jī)器人。它要學(xué)習(xí)走、跑、轉(zhuǎn)彎來嘗試接近球型的、隨機(jī)移動(dòng)的目標(biāo);環(huán)境中還有一個(gè)會(huì)撞機(jī)器人的小球給它增大難度,所以它還要學(xué)會(huì)受到撞擊以后恢復(fù)平衡,甚至被撞倒以后重新站起來。

現(xiàn)有算法

近期的策略梯度的一類方法讓深度神經(jīng)網(wǎng)絡(luò)在控制任務(wù)中取得了明顯進(jìn)步,電腦游戲、三維運(yùn)動(dòng)、圍棋都是很好的例子。但是用策略梯度的方法取得好的結(jié)果也有一些難度,因?yàn)檫@類方法對(duì)迭代步驟數(shù)非常敏感:如果選得太小,訓(xùn)練過程就會(huì)慢得令人絕望;如果選得太大,反饋信號(hào)就會(huì)淹沒在噪聲中,甚至有可能讓模型表現(xiàn)雪崩式地下降。這類方法的采樣效率也經(jīng)常很低,學(xué)習(xí)簡單的任務(wù)就需要百萬級(jí)至十億級(jí)的總迭代次數(shù)。

為了解決方法中的這些問題,研究人員們已經(jīng)找到了 TRPO(Trust Region Policy Optimization,信任區(qū)域策略優(yōu)化)和 ACER(Sample Efficient Actor-Critic with Experience Replay,能高效采樣的帶有經(jīng)驗(yàn)回放的表演者-評(píng)論者算法) 這樣的方法,對(duì)策略更新的大小做出限制或者另外的優(yōu)化。達(dá)到了這樣的效果,這些方法也就在別的方面付出了代價(jià):ACER 比 PPO復(fù)雜得多,需要額外的代碼用于策略外的糾正以及一個(gè)回放緩沖區(qū),在 Atari 測試中的具體表現(xiàn)卻只比 PPO 勉強(qiáng)好一點(diǎn)點(diǎn);TRPO 雖然在連續(xù)控制任務(wù)中很有用,但是對(duì)策略函數(shù)和價(jià)值函數(shù)或者輔助損失之間有共享參數(shù)的算法較難兼容,比如 Atari 和其它一些視覺輸入占據(jù)主要部分的任務(wù)就是這樣。

PPO

在監(jiān)督學(xué)習(xí)中,實(shí)現(xiàn)損失函數(shù)、在上面做梯度下降都很容易,而且基本上不費(fèi)什么功夫調(diào)節(jié)超參數(shù)就肯定能夠得到很好的結(jié)果。但是在強(qiáng)化學(xué)習(xí)中想要獲得好結(jié)果就沒有這么簡單了,算法中有許多變化的部分導(dǎo)致難以 debug,而且需要花很大的精力在調(diào)試上才能得到好結(jié)果。PPO 則在實(shí)現(xiàn)的難易程度、采樣復(fù)雜度、調(diào)試所需精力之間取得了新的平衡,它在每一步迭代中都會(huì)嘗試計(jì)算新的策略,這樣可以讓損失函數(shù)最小化,同時(shí)還能保證與上一步迭代的策略間的偏差相對(duì)較小。

之前 OpenAI 就詳細(xì)介紹過 PPO的一個(gè)變種 (NIPS 2016 論文視頻:通過策略優(yōu)化進(jìn)行深度強(qiáng)化學(xué)習(xí)),其中用一個(gè)自適應(yīng) Kullback–Leibler 懲罰項(xiàng)控制每次迭代中的策略變化程度。現(xiàn)在介紹的這種新變種則使用了一種其它算法中罕見的全新的目標(biāo)函數(shù):

策略梯度下降過時(shí)了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

信任區(qū)域更新的功能就可以通過這種目標(biāo)函數(shù)得到實(shí)現(xiàn),它與隨機(jī)梯度下降兼容,而且移除了Kullback–Leibler 懲罰項(xiàng)及它的自適應(yīng)升級(jí)功能差,從而簡化了算法。在測試中,PPO 算法在連續(xù)控制任務(wù)中取得了最好的效果,而且在 Atari 游戲測試中的表現(xiàn)幾乎與 ACER 持平;考慮到 PPO 的簡便性,這樣的結(jié)果真是令人驚喜萬分。

可控的復(fù)雜機(jī)器人

策略梯度下降過時(shí)了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

OpenAI 的研究人員們?cè)O(shè)計(jì)了具有互動(dòng)能力的機(jī)器人,然后用 PPO 訓(xùn)練它們的策略。在這些基于 Roboschool 環(huán)境的實(shí)驗(yàn)中,可以用鍵盤給機(jī)器人設(shè)定新的目標(biāo)位置;盡管輸入的目標(biāo)序列與用來訓(xùn)練機(jī)器人的序列不同,機(jī)器人仍然可以進(jìn)行泛化。

策略梯度下降過時(shí)了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

除了 Roboschool 中這樣的簡單機(jī)器人,他們還用 PPO 教會(huì)復(fù)雜的仿真機(jī)器人走路,比如來自波士頓動(dòng)力的 Atlas 的仿真模型。相比前面的雙足機(jī)器人的17個(gè)獨(dú)立關(guān)節(jié),這個(gè)模型中獨(dú)立關(guān)節(jié)的數(shù)目高達(dá)30個(gè)。也有一些其它的研究人員已經(jīng)成功借助 PPO 訓(xùn)練仿真機(jī)器人用精彩的跑酷動(dòng)作跨越障礙(參見雷鋒網(wǎng) AI 科技評(píng)論文章 機(jī)器人走路未必笨拙,DeepMind新方法訓(xùn)練的人工智能走得就很飄逸 )。

基準(zhǔn)模型:PPO 和 TRPO

OpenAI 一并發(fā)布了包含大小可變的、并行實(shí)現(xiàn)的 PPO 和 TRPO 的基準(zhǔn)模型,兩者都用 MPI 作為數(shù)據(jù)傳遞模塊,Python3 和 TensorFlow 都可以支持。他們還把用于訓(xùn)練上文中的機(jī)器人的預(yù)訓(xùn)練模型增加到了 Roboschool 機(jī)器人動(dòng)物園中。

論文地址:https://arxiv.org/abs/1707.06347 

基準(zhǔn)模型地址: https://github.com/openai/baselines 

相關(guān)文章:

機(jī)器人走路未必笨拙,DeepMind新方法訓(xùn)練的人工智能走得就很飄逸

OpenAI發(fā)布開源軟件Roboschool,模擬機(jī)器人的控制訓(xùn)練

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

策略梯度下降過時(shí)了,OpenAI 拿出一種新的策略優(yōu)化算法PPO

分享:
相關(guān)文章

讀論文為生

日常笑點(diǎn)滴,學(xué)術(shù)死腦筋
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說