0
分享主題
魯棒強化學(xué)習(xí)
分享背景
強化學(xué)習(xí)算法依賴大量采樣的特性決定了需要首先在仿真環(huán)境中訓(xùn)練智能體策略再遷移到現(xiàn)實系統(tǒng)中。因此當(dāng)仿真環(huán)境和現(xiàn)實系統(tǒng)出現(xiàn)不匹配時,策略的魯棒性是影響強化學(xué)習(xí)算法能否實用的關(guān)鍵因素。本次公開課中,講者將介紹華為倫敦研究所決策與推理團隊在魯棒強化學(xué)習(xí)方面的相關(guān)工作。
分享嘉賓
任航,倫敦帝國理工學(xué)院博士,任職于華為諾亞方舟實驗室倫敦
分享提綱
華為倫敦研究所決策與推理團隊介紹
強化學(xué)習(xí)的相關(guān)背景知識與強化學(xué)習(xí)的魯棒性問題
Wasserstein Robust Reinforcement Learning 論文解讀
分享時間
(北京時間 ) 10月 10 日(星期四) 20:00
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。