丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給我在思考中
發(fā)送

0

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

本文作者: 我在思考中 2021-11-01 09:51
導(dǎo)語:深度學(xué)習(xí)構(gòu)建工程中的大殺器。

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

身處機(jī)器學(xué)習(xí)時代的我們通常頭腦被目標(biāo)函數(shù)和優(yōu)化算法所充斥。這可能會將我們禁錮到認(rèn)知的角落中無法脫身。

當(dāng)我們跳出這個怪圈兒,將一直所追求的“優(yōu)化目標(biāo)”變成“泛化能力”時,說不定能夠事半功倍,得到意想不到的好處。比如,我們甚至可以去要求那種高深莫測的“直覺”。

編譯 | Don

編輯 | 青暮

在這篇文章中,谷歌機(jī)器人方向研究科學(xué)家Eric Jang將介紹一個深度學(xué)習(xí)構(gòu)建工程中的大殺器,也是他在工作學(xué)習(xí)中經(jīng)常使用、總結(jié)和堅(jiān)信的一個關(guān)鍵的工程設(shè)計(jì)原則。

“這個原則指導(dǎo)著我,并讓我形成如今的“研究品味”,也構(gòu)成了我工作中的設(shè)計(jì)思路。這樣的習(xí)慣或者設(shè)計(jì)原則讓我走的更遠(yuǎn),指導(dǎo)著我構(gòu)建出大規(guī)模、通用的機(jī)器學(xué)習(xí)系統(tǒng)?!?/span>

以下為全文分享:

近年來,隨著“神經(jīng)網(wǎng)絡(luò)縮放法則(Neural Scaling Laws)”的誕生,人們能夠更加方便的利用起互聯(lián)網(wǎng)上大規(guī)模的數(shù)據(jù),也就是使用無監(jiān)督的方法進(jìn)行預(yù)訓(xùn)練操作,當(dāng)然還有一些其他關(guān)于模型的工作。這就為機(jī)器學(xué)習(xí)未來的發(fā)展指出了一條令人興奮的道路:

  1. 對于泛化來說,數(shù)量巨大而內(nèi)容豐富的數(shù)據(jù)是很重要的,遠(yuǎn)比那些巧妙的模型設(shè)計(jì)技巧更加有效。

  2. 如果你相信上一點(diǎn)的話,那么你所訓(xùn)練的模型的泛化能力,將和你喂給模型的數(shù)據(jù)的多樣性以及速度,呈現(xiàn)出明顯的正比例關(guān)系。

所以很多人認(rèn)為,如果你使用有監(jiān)督的數(shù)據(jù)去訓(xùn)練你的深度學(xué)習(xí)模型,那么你的模型就會像個容量很大的“數(shù)據(jù)海綿”一樣——它們可以記住大量的數(shù)據(jù),并且可以通過數(shù)以萬計(jì)的批量訓(xùn)練過程,快速的學(xué)習(xí)、記憶并且輸出模型結(jié)果。

也許你會說數(shù)據(jù)多了也沒用,好多模型的學(xué)習(xí)容量就僅此而已。但是目前來看,ResNet和Transformers這樣的現(xiàn)代深度學(xué)習(xí)架構(gòu)還處于一種“沒有吃飽”的狀態(tài),他們在訓(xùn)練的過程中還能吃下更多的有監(jiān)督數(shù)據(jù)。

我們知道,在模型訓(xùn)練的過程中,如果損失函數(shù)(或者叫經(jīng)驗(yàn)風(fēng)險)降低到最低的時候,這個模型在理論上就已經(jīng)“記住”了喂入的訓(xùn)練集。從傳統(tǒng)的意義上來講,當(dāng)損失函數(shù)降低到最小之后,如果繼續(xù)訓(xùn)練的話,會出現(xiàn)過擬合的問題。

但是對于參數(shù)量和泛化能力驚人的深度學(xué)習(xí)模型來說,似乎即便是過擬合了,它的泛化能力表現(xiàn)的也還不錯。以下是“Patterns, Prediction, and Actions”一書中關(guān)于“雙重下降(Double Descent)”現(xiàn)象的描述:它說明了在某些問題上,即使訓(xùn)練損失完全最小化,過度的訓(xùn)練模型也能繼續(xù)減少測試誤差或測試風(fēng)險。

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

在最近ICLR的一個Workshop中的論文也研究了這一現(xiàn)象,他們在一個合成數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。

結(jié)果表明,如果你的模型已經(jīng)收斂,損失函數(shù)很低,并且在這種零訓(xùn)練損失的模式下仍然繼續(xù)訓(xùn)練,當(dāng)訓(xùn)練的時間足夠長的時候,模型就會突然有一種“頓悟Epiphany”,并在接下來的訓(xùn)練過程中學(xué)著去歸納總結(jié)(作者將之稱作“摸索Grokking”)。此外,該論文還提出了證據(jù),表明增加訓(xùn)練數(shù)據(jù),實(shí)際上減少了歸納所需的優(yōu)化操作次數(shù)。

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

這就像我的同事Chelsea Finn曾經(jīng)跟我說的那樣:“記憶是走向泛化的第一步!”

結(jié)果中表示,如果我們過度訓(xùn)練,用這樣的方式訓(xùn)練出來的最先進(jìn)的神經(jīng)網(wǎng)絡(luò)模型,能夠做出真正讓人印象深刻的事情。我們在這里展示一個DALL-E模型。當(dāng)我們告訴它,要生成一個“一只香蕉在表演脫口秀”的時候,它畫出了這樣的圖片:

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

一張不過癮?再來一個。如果我們讓DALL-E生成“一個戴著耳機(jī)的熊貓寶寶盯著鏡子里的倒影”的圖片。

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

請注意,在我們喂給模型的訓(xùn)練數(shù)據(jù)中并沒有“熊貓照鏡子”或者“香蕉樣子的喜劇演員”這樣的圖片(我覺得),所以這些結(jié)果表明,DALL-E模型已經(jīng)學(xué)會從文本中區(qū)分并解釋不同的概念,然后在圖像中渲染對應(yīng)的事物實(shí)體,并讓它們在一定程度上做出我們想要的動作或狀態(tài)。

細(xì)思極恐,我們只要通過這種“單純命令(Just Ask)”的語言命令,就能指導(dǎo)深度學(xué)習(xí)模型來輸出或執(zhí)行一些我們甚至都不知道是什么玩意兒的東西。這啟發(fā)了我們!讓我們覺得,這種“提示工程Prompt engineering”式的模型,能夠用來改善我們的機(jī)器學(xué)習(xí)模型。這里我們展出一條推文,討論了用“虛幻引擎Unreal Engine”這個詞兒給VQGAN+CLIP模型打底,是怎么讓圖像質(zhì)量大幅提高的。

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

進(jìn)一步來說,如果我們能夠?qū)?/span>“只要求泛化”這一原則擴(kuò)展到其他無法進(jìn)行性能分析的挑戰(zhàn)性問題上呢?



1

強(qiáng)化學(xué)習(xí):不是塊好的數(shù)據(jù)海綿

與監(jiān)督學(xué)習(xí)相比,強(qiáng)化學(xué)習(xí)算法在面對大量差異化的數(shù)據(jù)時,其利用能力和計(jì)算效率要低的多。為了深入了解為什么會這樣,讓我們考慮一個思想實(shí)驗(yàn):我們要去訓(xùn)練一個通用的機(jī)器人,讓這個機(jī)器人在非結(jié)構(gòu)化的環(huán)境中完成數(shù)百萬的任務(wù)。

標(biāo)準(zhǔn)的馬爾可夫決策過程設(shè)置如下:策略被表示為行動的狀態(tài)條件分布,p(a|s);而環(huán)境則由獎勵函數(shù)組成:r(st,at);轉(zhuǎn)換函數(shù)表示為p(st+1|st,at)。初始狀態(tài)和任務(wù)目標(biāo)被編碼在初始狀態(tài)s0中,它是一個從分布p(s0)中取樣的。

我們算法的目標(biāo)是使整個事件中的獎勵函數(shù)之和最大化,在不同的初始狀態(tài)下取樣自p(s0):

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

讓我們假設(shè)存在某種“最優(yōu)策略”,該策略可以實(shí)現(xiàn)最大化的激勵max0(R0)?!癝upremum”可能在這種情況下更合適,但是為了讓這個式子更好的計(jì)算和記憶,我們簡化之。我們想讓模型p(theta(a|s)盡可能的接近于p*(a|s).

如果我們能夠得到最優(yōu)策略p*(a|s),并將之稱作“上帝視角Oracle”,并可以像有監(jiān)督的數(shù)據(jù)集一樣通過查詢上帝視角來獲取其標(biāo)簽。這樣的話,我們就可以去訓(xùn)練一個前饋策略,將狀態(tài)映射到上帝視角上,并且享受一切監(jiān)督學(xué)習(xí)方法所特有的優(yōu)點(diǎn):穩(wěn)定的訓(xùn)練過程和操作、大批量、多樣化的離線數(shù)據(jù)集,不用費(fèi)勁兒和環(huán)境互動。

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

然而,在強(qiáng)化學(xué)習(xí)中,我們往往沒有專家系統(tǒng)可以查詢,所以,我們必須從模型自身所收集的經(jīng)驗(yàn)數(shù)據(jù)中找到監(jiān)督信息,并據(jù)此改進(jìn)我們的策略。要做到這一點(diǎn),我們需要估計(jì)出,能夠使模型策略更接近于最優(yōu)點(diǎn)的梯度,這就需要得到當(dāng)前策略在這個環(huán)境中的平均偶發(fā)回報值(average episodic return of the current policy),然后估計(jì)該回報相對于參數(shù)的梯度。如果你把環(huán)境收益當(dāng)做一個關(guān)于某些參數(shù)的黑箱來看的話,你可以使用對數(shù)衍生技巧(log-derivative)來估計(jì)這些梯度。

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

這個梯度估計(jì)包含兩個期望組成,我們需要對其進(jìn)行數(shù)學(xué)近似。首先是計(jì)算其本身,它是對起始狀態(tài)的一個期望值。在我之前的文章中,我提到過對二項(xiàng)式變量(例如機(jī)器人在單一任務(wù)上的成功率)的精確估計(jì)可能需要成千上萬次的實(shí)驗(yàn),這樣才能達(dá)到百分之幾的統(tǒng)計(jì)確定性。這是對于當(dāng)時我那篇文章中假設(shè)的通用型機(jī)器人來說的。

但是我們的任務(wù)可能包括數(shù)以百萬計(jì)的任務(wù)和數(shù)不清的超多場景,那這使得精確評估的成本過高,可能我們強(qiáng)化學(xué)習(xí)算法還沒學(xué)會,時間卻過去幾百年了。

第二個期望是在策略梯度的估計(jì)中遇到的一些算法,比如CMA-ES,直接從策略參數(shù)分布中采樣樣本,而其他強(qiáng)化學(xué)習(xí)算法,如PPO,則是從策略分布p_theta(a|s)中抽取樣本,并使用反向傳播法則來計(jì)算收益相對于參數(shù)的梯度。

而后者通常是實(shí)際中最常用的解決方法,因?yàn)樾袆訁?shù)的搜索空間,通常要比策略參數(shù)的搜索空間要小(因此需要更少的環(huán)境交互來估計(jì)梯度)。

如果在一個單一的上帝視角標(biāo)記的標(biāo)簽a~p*(a|s)上進(jìn)行監(jiān)督的克隆操作,會得到一些監(jiān)督的梯度向量g*。但是如果使用強(qiáng)化學(xué)習(xí)的話,想要達(dá)到同樣的效果,是需要相當(dāng)于O(H(s0)*H(a))倍的梯度向量監(jiān)督才能實(shí)現(xiàn)的,而且其估計(jì)只能看做是一個相對較低的變異估計(jì)(low-variance estimate)。這種操作無疑是十分復(fù)雜的,會讓我們的人工成本和操作過程十分復(fù)雜,手忙腳亂。在這種操作中,我們需要假設(shè)初始狀態(tài)的熵分布有一個乘法系數(shù)O(H(s0)),并用其來估計(jì)R(theta)的分布。而且還要用O(H(a))來估計(jì)Delta_thetaR(theta)本身。

所以說,強(qiáng)化學(xué)習(xí),尤其是在獎勵稀疏化、多樣化、任務(wù)可能是多樣性的場景中進(jìn)行在線的強(qiáng)化學(xué)習(xí),是需要大量的輪回滾動來準(zhǔn)確估計(jì)回報以及他們的梯度向量的。

你必須在每一個小批量(mini-batch)的更新中來提供這些信息,這是這種操作所必須的成本!當(dāng)環(huán)境需要處理繁復(fù)多樣化的場景,并要求對未見過的情況進(jìn)行歸納、總結(jié)和預(yù)測的時候,會需要在訓(xùn)練的過程中提供更多更全面的訓(xùn)練數(shù)據(jù)樣本,也要求數(shù)據(jù)樣本具有更加全面的多樣化。

OpenAI DOTA的開發(fā)團(tuán)隊(duì)發(fā)現(xiàn),在訓(xùn)練過程中,只有他們的mini-batch中擁有數(shù)以百萬計(jì)的樣本的時候,才能將梯度噪聲降低到可以接受的水平。

這在直覺上是可以講的通的:如果我們是模型R(theta),在我們進(jìn)行訓(xùn)練和學(xué)習(xí)的時候,每次接收mini-batch個樣本,而我們需要去對s0個場景進(jìn)行學(xué)習(xí)區(qū)分,而且還不能狗熊掰棒子似的學(xué)著新的而慢慢忘了之前的,那么當(dāng)我們從監(jiān)督學(xué)習(xí)轉(zhuǎn)變成在線強(qiáng)化學(xué)習(xí)的時候,可能就會需要更大的訓(xùn)練樣本量,更多的訓(xùn)練batch,這個樣本個數(shù)的增加可能是數(shù)倍、數(shù)十倍的增加。


2

那離線強(qiáng)化學(xué)習(xí)怎么樣呢?

既然在線強(qiáng)化學(xué)習(xí)不太行,那離線版本的強(qiáng)化學(xué)習(xí)會不會更好呢?我們現(xiàn)在討論一下Deep Q-Learning這樣的離線強(qiáng)化學(xué)習(xí)方法在(S,A,R,S)這樣的數(shù)據(jù)集上的表現(xiàn)。

這種方法是通過bootstrapping來工作的。其中我們將價值函數(shù)回歸到的目標(biāo)值是使用相同網(wǎng)絡(luò)對下一個狀態(tài)的最佳動作值估計(jì)的副本來計(jì)算的。

這些離線強(qiáng)化學(xué)習(xí)方法的吸引力在于,你可以從不同的、離策略的數(shù)據(jù)中得到最佳的策略,因此就不需要去和環(huán)境進(jìn)行交互。像QCL這樣的Q learning的改進(jìn)版本的算法,在離線數(shù)據(jù)集上的效果還能更好,并且在數(shù)據(jù)量較小的模擬控制環(huán)境中還顯示出了出色的性能和令人興奮的前景。

但不幸的是,bootstrapping并不能和泛化很好的結(jié)合起來。眾所周知,函數(shù)近似(function approximation)、Bootstrapping和Off Policy data(學(xué)習(xí)來自目標(biāo)策略之外的數(shù)據(jù))這三個操作都會導(dǎo)致訓(xùn)練的不穩(wěn)定性。

我認(rèn)為在強(qiáng)化學(xué)習(xí)中,這個問題只會越來越嚴(yán)重,越來越被放大,因?yàn)槲覀償U(kuò)大了數(shù)據(jù)集的規(guī)模,并期望在越來越抽象和一般化的任務(wù)上訓(xùn)練它們。

這項(xiàng)工作表明,反復(fù)的bootstrapping會迭代地降低神經(jīng)網(wǎng)絡(luò)的泛化能力和容量。如果你也同意深層神經(jīng)網(wǎng)絡(luò)的過度訓(xùn)練是泛化的關(guān)鍵這一觀點(diǎn)的話,那么對于相同的神經(jīng)網(wǎng)絡(luò)架構(gòu),離線強(qiáng)化學(xué)習(xí)就不像監(jiān)督學(xué)習(xí)那樣具有“數(shù)據(jù)吸收 Data Absorbent”的能力。

在實(shí)踐中,即便是一些優(yōu)化后的強(qiáng)化學(xué)習(xí)算法,比如CQL,它們在數(shù)據(jù)量很大、真實(shí)世界的數(shù)據(jù)集上進(jìn)行擴(kuò)展和調(diào)試的話,仍然具有很大的挑戰(zhàn)性。我的同事曾經(jīng)在大規(guī)模機(jī)器人問題上嘗試了AWAC和CQL的幾種擴(kuò)展變化的算法,發(fā)現(xiàn)它們比行為克?。˙ehavior Cloning)這樣的原始的方法更難處理、更棘手。

那么我們自然會想到,與其費(fèi)勁周折折騰半天,不如將經(jīng)歷放在深層網(wǎng)絡(luò)所擅長的方面——通過有監(jiān)督的學(xué)習(xí)和對大規(guī)模的數(shù)據(jù)泛化來快速獲取數(shù)據(jù),這樣做的話,效果如何?我們是否能夠通過利用泛化的工具而不是直接優(yōu)化的操作來完成強(qiáng)化學(xué)習(xí)的學(xué)習(xí)目的?



3

學(xué)習(xí)分布,而不是學(xué)習(xí)到最佳的狀態(tài)

如果我們將泛化作為算法設(shè)計(jì)的首要任務(wù),或者說一等公民,并將其他的一切都視作是為其服務(wù)的二等公民,會發(fā)生什么呢?然后當(dāng)我們可以通過監(jiān)督學(xué)習(xí)簡單地學(xué)習(xí)所有的策略,并“禮貌的要求just ask nicely”般地要求其進(jìn)行某些策略學(xué)習(xí),又會發(fā)生什么呢?

讓我們來看一下最近新興的關(guān)于Decision Transformer(DT)的工作,作者沒有對單一的策略進(jìn)行建模,而是用強(qiáng)化學(xué)習(xí)對齊進(jìn)行迭代改進(jìn),他們只是用監(jiān)督學(xué)習(xí)加上一個順序模型來預(yù)測許多不同的策略的軌跡。

這個模型以回報率作為條件,以便它可以預(yù)測于實(shí)現(xiàn)這些回報的這個策略相一致的行動。Decision Transformer只是用監(jiān)督學(xué)習(xí)對所有策略,包括好的和壞的,進(jìn)行建模,然后利用深度學(xué)習(xí)泛化的魔力,從專家挑戰(zhàn)的策略中進(jìn)行推斷。

這些現(xiàn)象其實(shí)已經(jīng)在之前的一些同時期進(jìn)行的工作結(jié)果中被發(fā)現(xiàn),并且得到了一些利用和發(fā)展,比如獎勵條件策略(Reward-Conditioned Policies)、顛倒強(qiáng)化學(xué)習(xí)(Upside Down Reinforcement Learning)和“強(qiáng)化學(xué)習(xí)作為一個大序列建模問題Reforcement Learning as One Big Sequence Modeling Problem”。

AlphaStar團(tuán)隊(duì)還發(fā)現(xiàn),以人類玩家的統(tǒng)計(jì)數(shù)據(jù)(例如他們最終建造的未來單位)為條件,用來模仿所有的玩家數(shù)據(jù),比只去模仿專家級別的建造命令的訓(xùn)練效果要好。

這種技術(shù)也常用于自動駕駛的汽車領(lǐng)域,對好的司機(jī)和技術(shù)不佳的司機(jī)進(jìn)行聯(lián)合的建模,盡管自動駕駛策略只被用來模仿好的駕駛行為,但是這樣的訓(xùn)練方法通常會得到較好的訓(xùn)練結(jié)果和模型。



4

馬后炮式重新標(biāo)記Hindsight

在一些高層級語義的場景中,Decision Transformer將監(jiān)督下的學(xué)習(xí)目標(biāo)以一些高層次的描述為條件,這些描述根據(jù)g的值來劃分策略在未來會做什么。

對于強(qiáng)化學(xué)習(xí)任務(wù)來說,反向的操作(return to go)是強(qiáng)化學(xué)習(xí)中很占分量的操作,但是你也可以通過目標(biāo)狀態(tài)或《星際爭霸》的構(gòu)建順序,甚至是對所完成的工作的自然語言描述來表達(dá)未來的結(jié)果。

在"Learning Latent Plans from Play"一文中,作者將任意的算法軌跡與事后的自然語言命令描述內(nèi)容進(jìn)行配對,然后訓(xùn)練一個模型來克隆那些以語言描述為條件的行為。

在測試的過程中,他們則會簡單的要求這個策略以零為起點(diǎn)的方式完成一項(xiàng)新的任務(wù)。這些技術(shù)的好處是,它們對于在像螞蟻迷宮這樣的強(qiáng)化學(xué)習(xí)任務(wù)中,以少量探索(即稀疏)的目標(biāo)驅(qū)動是與生俱來的。這就支持了這樣的說法:在長周期的任務(wù)中,跨目標(biāo)條件的泛化、概括和推理可以比對單一稀疏目標(biāo)的暴力搜索做的更好。

語言是作為條件輸入的一個良好的選擇,因?yàn)樗粌H可以用來劃分算法軌跡,還可以按任務(wù)進(jìn)行劃分,按照策略的探索成都劃分,按照它所達(dá)到的“動物性”的程度進(jìn)行劃分,還按照人類可能對算法軌跡的任何其他觀察和評價指標(biāo)進(jìn)行劃分。

輸入的語言句子可以是臨時拼湊的,比較隨意,不用特意為機(jī)器人可能完成的所有結(jié)果,特意開發(fā)一個正式的專業(yè)語法甚至語言。

對于現(xiàn)實(shí)世界的結(jié)果和行為的多樣性,語言是一種理想的“模糊”標(biāo)識,隨著我們要對越來越多的數(shù)據(jù)集進(jìn)行操作、劃分和分割,用自然語言進(jìn)行命令的輸入和執(zhí)行,將會越來越重要。



5

從不完美的數(shù)據(jù)中進(jìn)行泛化與歸納

我最近發(fā)現(xiàn)了一項(xiàng)有意思的工作,并且從中受到啟發(fā):D-REX,它解決了從次有策略的演示和數(shù)據(jù)中推斷出環(huán)境的獎勵函數(shù)的問題。

之前的時候,我們的訓(xùn)練場景中,都是默認(rèn)輸入給我們的系統(tǒng)和模型的都是最佳的策略,在這種情況中,我們能夠使用離策略算法,比如Q learning來估計(jì)價值函數(shù)。

使用深度神經(jīng)網(wǎng)絡(luò)的離線價值估計(jì)方法可能會對不在演示軌跡中的狀態(tài)-動作數(shù)據(jù)對產(chǎn)生不良的泛化作用,因此需要仔細(xì)調(diào)整算法,以確保價值函數(shù)的收斂。

一個收斂性差的算法會使訓(xùn)練損失最小化,從而使得泛化的能力和最終收斂到的狀態(tài)十分脆弱。

D-REX提出了一個非常聰明和睿智的小技巧,來在數(shù)據(jù)策略是次優(yōu)的情況下,繞過根本沒有任何獎勵標(biāo)簽的問題:

  1. 給出一個次優(yōu)的策略pi_theta,通過允許策略于環(huán)境的互動來生成軌跡滾動圖。在軌跡滾動圖中,向動作數(shù)據(jù)中添加一定量的噪聲sigma。

  2. 假設(shè)添加噪聲的操作會讓次優(yōu)的策略的效果更差,也就是R(tao)>R(tao+sigma).

  3. 訓(xùn)練一個評分模型f_theta(tao_i, tao_j)來預(yù)測tao_i和tao_j誰有更高的評分,然后返回更高者。

  4. 評分模型可以神奇地推斷出tao_theta能夠推斷出的模型中,哪個的效果比較好,即便評分模型從未在軌跡上訓(xùn)練得比pi_theta更優(yōu)。

實(shí)話說,我很喜歡這種方法,因?yàn)樵u分模型訓(xùn)練起來是很穩(wěn)定的,它們只是一些分類器,而且這種方法不是通過貝爾曼不等式的方法明確構(gòu)建或者通過學(xué)習(xí)模型的隱性規(guī)劃來實(shí)現(xiàn)優(yōu)于示范者的行為,而是通過對一系列擾動的推斷來實(shí)現(xiàn)的。

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒



6

強(qiáng)化學(xué)習(xí)還需要從經(jīng)驗(yàn)中學(xué)習(xí)并改進(jìn)嗎

在前文中,我們描述了如何“泛化和推斷”從而繞過搜索,甚至可以從稀疏的獎勵結(jié)果中進(jìn)行逆向的強(qiáng)化學(xué)習(xí)。但是,我們是否想過“根據(jù)策略自身的經(jīng)驗(yàn)進(jìn)行改進(jìn),tabular rasa”呢?這是人們?nèi)淌軐?shí)現(xiàn)RL算法的痛苦的主要原因。我們可以用監(jiān)督學(xué)習(xí)算法和一些泛化來替代它嗎?

強(qiáng)化學(xué)習(xí)的目標(biāo)是從當(dāng)前的參數(shù)集合theta^n和一些收集到的策略經(jīng)驗(yàn)tao,來變化學(xué)習(xí)成一組新參數(shù)theta^(n+1),從而來實(shí)現(xiàn)更高的回報和價值結(jié)果。那么,我們是否可以不使用“適當(dāng)?shù)摹睆?qiáng)化學(xué)習(xí)算法來更新智能體函數(shù),而是轉(zhuǎn)而通過監(jiān)督深度學(xué)習(xí)f:(theta^n,tao)->theta^(n+1)來直接學(xué)習(xí)這個映射呢?

這個想法有時候也被成為“元強(qiáng)化學(xué)習(xí)meta reinforcement learning”,因?yàn)樗哪繕?biāo),涉及到了學(xué)習(xí)比現(xiàn)成的強(qiáng)化學(xué)習(xí)算法更好的強(qiáng)化學(xué)習(xí)函數(shù)。

我和我的同事將這個想法應(yīng)用于一個項(xiàng)目之中。在這個項(xiàng)目中,我們訓(xùn)練了一個神經(jīng)網(wǎng)絡(luò),它從一個較小的策略經(jīng)驗(yàn)的視頻中預(yù)測“改進(jìn)的策略行為”。即使我們從未在最優(yōu)策略軌跡上進(jìn)行訓(xùn)練,也許足夠的數(shù)據(jù)增強(qiáng)可以使得一般改進(jìn)算子外推到參數(shù)的最優(yōu)策略機(jī)制。

人們經(jīng)常將這種策略改進(jìn)行為與DQN和PPO等“強(qiáng)化學(xué)習(xí)算法”混為一談,但實(shí)際上,它們的行為與實(shí)現(xiàn)有些差異?!安呗愿倪M(jìn)操作Policy improvement operator” f:(theta^n,tao)->theta^(n+1)可以通過你選擇的強(qiáng)化學(xué)習(xí)或監(jiān)督學(xué)習(xí)來進(jìn)行學(xué)習(xí),但以類似強(qiáng)化學(xué)習(xí)的方式進(jìn)行部署,從而來和環(huán)境進(jìn)行交互。



7

“泛化為目標(biāo)的指令”驅(qū)動式方法

下面,我給出一個表格,表格中總結(jié)了前面提到的強(qiáng)化學(xué)習(xí)的問題,并比較了如何使用“泛化和推斷”的方法,而不是直接優(yōu)化的方式,來解決其中的每個問題。

目標(biāo)

直接優(yōu)化方法

泛化+推斷的方法

具有稀疏獎勵的強(qiáng)化學(xué)習(xí)

找到p*(at|st) 來讓Rt=1, 使用暴力搜索思路

DT:從眾多策略中學(xué)習(xí)p(at|st, Rt),推斷p(at|st, Rt=1)。H.E.R推斷收集軌跡最佳的任務(wù),然后學(xué)習(xí)p(trajectory|task)。然后推斷所需任務(wù)的最佳軌跡。

從次優(yōu)軌跡中學(xué)習(xí)獎勵函數(shù)

離線反向強(qiáng)化學(xué)習(xí)

D-REX:軌跡增強(qiáng)+推斷更好的軌跡。

從經(jīng)驗(yàn)中改進(jìn)策略

Q Learning,策略梯度

Watch Try Learn:學(xué)習(xí)p(theta^n+1|theta^n, tao, task)。

在真實(shí)的環(huán)境中微調(diào)模擬策略

樣本高效的強(qiáng)化學(xué)習(xí)微調(diào)

領(lǐng)域隨機(jī):在仿真數(shù)據(jù)和環(huán)境中訓(xùn)練,然后規(guī)則推測出在測試和預(yù)測階段中這是屬于那個世界(infers which world)。

用高概括的語言進(jìn)行控制的方式很簡單。如果你想找到問題xi的解決方法yi,可以考慮首先設(shè)定問題和解決方案的配對所構(gòu)成的數(shù)據(jù)集(x1, y1), ..., (x2, y2),然后預(yù)訓(xùn)練一個深度神經(jīng)網(wǎng)絡(luò)y=f_theta(x),這個神經(jīng)網(wǎng)絡(luò)就能根據(jù)你輸入的高級自然語言指令,映射到解決方案上。然后替換你想要的xi并讓深層神經(jīng)網(wǎng)絡(luò)推斷出解決方案?!皢栴}”是最抽象的術(shù)語,它可以指代強(qiáng)化學(xué)習(xí)深度學(xué)習(xí)的環(huán)境、數(shù)據(jù)集,甚至是單個實(shí)例?!敖鉀Q方法/解決方案”可以標(biāo)識為策略或神經(jīng)網(wǎng)絡(luò)的最佳參數(shù),或者單個預(yù)測。

目標(biāo)重新標(biāo)記(Goal Relabeling Techniques)等技術(shù)有助于從解決方案中生成事后的問題,但也可以通過數(shù)據(jù)集增強(qiáng)技術(shù)來搭建這樣的數(shù)據(jù)集。從本質(zhì)上來說,我們正在將一個困難的優(yōu)化問題轉(zhuǎn)化為一個推理問題,并在問題的分布上訓(xùn)練一個監(jiān)督學(xué)習(xí)模型,這些問題的解決方案的成本相對較低。

在此,我們總結(jié)這種方法中的三個建議:

  1. 選擇一種能夠?qū)⒑A繑?shù)據(jù)集的訓(xùn)練損失最小化的方法,即最大似然的監(jiān)督學(xué)習(xí)。這將有助于擴(kuò)展到復(fù)雜、多樣化的數(shù)據(jù)集中,并從預(yù)測預(yù)算中獲得最大的泛化成果和達(dá)到最佳的里程碑。

  2. 如果你想學(xué)習(xí)p(y|x, task=g*),并用它來執(zhí)行任務(wù)預(yù)測g*,那就可以嘗試為許多相關(guān)但不同的任務(wù)學(xué)習(xí)p(y|x, task) g~p(g), g!=g*,那么在測試的時候只需要滿足g*就可以了。

  3. 制定出有助于劃分?jǐn)?shù)據(jù)分布的條件變量,同時仍然允許對來自p(g)的保留樣本進(jìn)行泛化。自然語言編碼是一個不錯的選擇。

我們可以將優(yōu)化問題轉(zhuǎn)化成為推理問題,這個操作其實(shí)并不是什么稀奇事兒。例如,SGD優(yōu)化器可以轉(zhuǎn)化為近似貝葉斯推理,因此可以通過AICO進(jìn)行優(yōu)化控制。這些工作都在理論上支撐了“近似可以作為優(yōu)化的近似品”的理論根基,因?yàn)閱栴}和算法可以相互來回轉(zhuǎn)換。

盡管如此,但是我所建議的和上述觀點(diǎn)稍有區(qū)別。我們沒有將順序決策問題轉(zhuǎn)化為等效的順序推理問題,我們更多的是構(gòu)建“元問題”:它們的問題描述擁有類似的分布,很容易獲得解決方案。然后我們通過將問題直接映射到解決方案來使用監(jiān)督學(xué)習(xí)解決元問題主題。

不要想的太多,我們只要用最簡單的方式訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),然后要求它進(jìn)行泛化就可以了。

也許在不久的未來,我們就能夠通過輸入一些特別虛幻的泛化描述("generalize to unseen")來實(shí)現(xiàn)我們的目標(biāo)。



8

如果只要求意識(Consciousness)會怎樣呢?

作為直接優(yōu)化的替代品,我們可以將“泛化和推斷”的原則延伸到多遠(yuǎn)呢?這是一個“意識驅(qū)動的方法Recipe for consciousness”,也許這種方法能夠達(dá)到一些意想不到的效果:

訓(xùn)練一個以自然語言為輸入的多策略模型p_theta(a|s,g),可以通過Decision Transformer或者其他的類似工具實(shí)現(xiàn)。

然后我們用這個模型來模仿各種策略:pi_1,..., pi_N,并且以這些自然語言的代理描述g為預(yù)測函數(shù)的條件輸入。

在測試時,一些默認(rèn)策略p(a|s, g=Behave as yourself)與另一個智能體描述交互pi測試多個步驟,之后我們指示模型,讓它“表現(xiàn)得好像你是pi測試”。這種模型需要一種“對他人的元認(rèn)知”的能力,因?yàn)樗仨毻茢喑鍪裁凑遬i_test會在特定情況下進(jìn)行。

我們復(fù)制了多策略模型p_phy~p_theta,并在單個場景中嵌入步驟(1)的多個測試時間迭代,具有數(shù)十個智能體。其中兩個智能體的最初條件是p_theta(a|s,g=表現(xiàn)得像我自己),以及p_phy(a|s,g=表現(xiàn)得像我自己)。

這會產(chǎn)生一些智能體模仿其他智能體的情況,并且所有智能體都觀察到這種行為。然后我們問p_phy,發(fā)出帶有條件上下文的動作“表現(xiàn)的好像是pi_theta冒充你”。這將需要pi_phy建模pi_theta的模仿能力,以及pi_theta知道pi_phy當(dāng)前狀態(tài)的信息。

很多研究人員,比如Jurgen Schmidhuber之前曾經(jīng)討論過一個話題,就是為什么實(shí)體智能體的動態(tài)模型(或者叫世界模型)為何已經(jīng)是“有意識的”了,因?yàn)樗麄儼l(fā)現(xiàn)成功地模擬自己周圍環(huán)境的動態(tài)需要將自我表示為環(huán)境中的實(shí)體參與者。

雖然我認(rèn)為“自我表示”是規(guī)劃和動態(tài)預(yù)測問題的必要條件,但是我還是認(rèn)為這個框架太空洞了。它無法用于再現(xiàn)令人新服的意識模仿現(xiàn)象。你想,畢竟在每個想象的軌跡展開的過程中,都會明確的標(biāo)識“自我”的任何規(guī)劃算法在當(dāng)前的這種定義下都是有意識的。而其實(shí)一個A*迷宮規(guī)劃起maze-planner就能滿足意識的這種定義。

在此,我所提議的是使用一種“更有說服力”的意識形式,而不僅僅是基于“對自我進(jìn)行規(guī)劃的必要表示”。

算法更需要的,其實(shí)是基于對自我的理解,這種理解可以通過與任何特定目標(biāo)無關(guān)的語言和行為進(jìn)行傳播。例如,這個模型不僅需要了解給定的策略是如何看待自己的,還需要了解其他各種政策是如何解釋這個策略的行為,就像是扭曲一面游樂園中的鏡子一樣。我們假設(shè),通過展示對“扭曲的自我反思”的理解,這種策略將能夠?qū)W會識別自己,并模擬智能體與智能體交互中其他智能體的內(nèi)部的動機(jī)和信念。

行文至此,還有一些重要的實(shí)現(xiàn)細(xì)節(jié)我沒能詳細(xì)說明,但是在更高的層次上,我真的認(rèn)為監(jiān)督學(xué)習(xí)和自然語言作為條件輸入,以及強(qiáng)大的智能體交互數(shù)據(jù)集是學(xué)習(xí)有趣行為的,十分優(yōu)秀的工具。這種工具能夠使得代理具有某種自我意識,也能讓其他智能體的元認(rèn)知能力朝著令人新服的意識模仿的方向,邁出重要的一步。



9

問答

Igor Mordatch先生在評閱本文的時候提出了一些有趣的問題,我們進(jìn)行了相應(yīng)的討論。我在這里解釋了他的問題,并在本節(jié)中給出答復(fù)。

  1. 你討論了監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí),那么你是如何看待無監(jiān)督學(xué)習(xí)和“蛋糕類比The Cake Analogy”問題的呢?

答:我認(rèn)為無監(jiān)督學(xué)習(xí)只是針對不同任務(wù)的監(jiān)督學(xué)習(xí)而已,它具有可比的梯度方差,因?yàn)槌嗽鰪?qiáng)之外,目標(biāo)通常不會被嘈雜有噪地估計(jì)。最大似然估計(jì)和對比算法,比如InfoNCE,似乎都有助于促進(jìn)龐大模型的泛化。

  1. 對于穩(wěn)重強(qiáng)化學(xué)習(xí)的第一個難點(diǎn),也就是評估成功,是否也和當(dāng)前的生成模型有類似的地方?我們很難妥善的去評估語言模型,比如我們可以看到很多人對BLEU分?jǐn)?shù)的不滿,也能看到基于非似然性的生成圖像模型評估似然性是很困難的。

答:與無似然生成模型類似,它需要大量計(jì)算來進(jìn)行訓(xùn)練、采樣,或者似然估計(jì)。然而,在實(shí)踐中,我認(rèn)為評估所帶來的負(fù)擔(dān)是不能直接拿來比較的,因?yàn)檫吘壔瘜Υ祟惸P偷挠^察的計(jì)算費(fèi)用,與強(qiáng)化學(xué)習(xí)中成功率估計(jì)的邊緣化相比的話,相形見絀。在強(qiáng)化學(xué)習(xí)中,你必須在O(硬幣反轉(zhuǎn))*O(初始化狀態(tài)分布)*O(動作分布)上推斷出環(huán)境,從而獲得“在所有狀態(tài)和任務(wù)中提高成功率”的低方差策略梯度。O(反轉(zhuǎn)硬幣)是O(1000)個樣本級別的操作,用于在統(tǒng)計(jì)確定性的情況下,局部改進(jìn)幾個百分點(diǎn),而我認(rèn)為,如果使用Langevin采樣O(minibatch=32)等技術(shù)的話,隱含可能性的邊緣化成本往往是更便宜的。此外,Langevin動力學(xué)中使用的反向傳播傳遞,通常比運(yùn)行完整的環(huán)境模擬(在每一步都向前傳遞神經(jīng)網(wǎng)絡(luò))更便宜。

  1. 當(dāng)前語言模型工作的一項(xiàng)發(fā)現(xiàn)是,你真正想要的智能體目標(biāo)函數(shù),其實(shí)已經(jīng)足夠好了。簡單的下一個token的預(yù)測方法會導(dǎo)致泛化問題。但是,在大型模型的領(lǐng)域中,如果你想讓代理和你想要的結(jié)果真正保持一致的話,還是一個難題,而且我們還沒有很好的解決方法(其實(shí)很諷刺的是,迄今為止,許多嘗試都是和強(qiáng)化學(xué)習(xí)一起來使用)。

答:對齊目標(biāo)可能缺少每個樣本實(shí)例的替代損失。但是在“泛化,然后推斷”的流派中,我會簡單地建議去學(xué)習(xí)p(y|x, alignment objective)這一目標(biāo),與眾多事后對齊目標(biāo)的最大似然,然后在測試的時候簡單的以所需的對象對齊為條件進(jìn)行模型構(gòu)建。人們可以通過簡單的實(shí)時運(yùn)行模型來獲得對齊描述的分布,然后用模型實(shí)現(xiàn)的相應(yīng)對齊,進(jìn)行事后標(biāo)記。然后我們就可以簡單的調(diào)用Connor Leahy的這個方法:

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

僅僅讓AI去做某件事,這個方法聽起來好像很輕率和不靠譜,但是在看到DALL-E和其他大規(guī)模多模態(tài)模型的表現(xiàn)之后,我們能夠發(fā)現(xiàn),似乎隨著模型變大,泛化效果會變得更好。因此,反過來,我們應(yīng)該更認(rèn)真的對待這些簡單的、邊緣幼稚的想法。

  1. 對于強(qiáng)化學(xué)習(xí)(梯度估計(jì))的第二個難點(diǎn),我們能夠通過環(huán)境動態(tài)進(jìn)行反向傳播,從而獲得更加準(zhǔn)確的策略梯度。但是這樣做,通常會導(dǎo)致更糟糕的結(jié)果。

答:這個問題讓我想起了Yann Lecun的一篇舊聞,是關(guān)于FB的評論。他是討論ReLU激活估計(jì)Hessian向量乘積的方法的,其中說可以使用隨機(jī)估計(jì)器而不是精確的計(jì)算來分析Hessian,因?yàn)镽elu的二階曲率是0,并且我們其實(shí)想得到的是函數(shù)平滑版本的Hessian向量乘積。

如果你不想使用動態(tài)信息,也不想使用無偏隨機(jī)估計(jì),而是想用可微分的模擬方式進(jìn)行訓(xùn)練,那么我認(rèn)為你又需要進(jìn)行很繁瑣的估計(jì)的怪圈之中。因?yàn)楹芏鄷r候,你需要經(jīng)過多次推導(dǎo)來推出平滑模擬方程,并減少其方差。但是,也許估計(jì)一個平滑的策略梯度所需的樣本量是一個合理的權(quán)衡,而這正是獲得梯度的一個良好的方法。

  1. 為什么像你文中提出的(概括然后推斷)這種方法看起來很簡單,但是目前為止還沒有人做出來?

答:其實(shí)一些研究員其實(shí)已經(jīng)在研究這個方向了。我的猜測是,科研界傾向于獎勵增加智能復(fù)雜性的敘述,并認(rèn)為“我們需要更好的算法”。而人們則是天天嚷嚷著想要“簡單的想法”,但是很少有人愿意真正的追求簡單性的極致,并擴(kuò)展現(xiàn)有的想法。

另一個原因則是,研究人員通常不會將泛化視為理所當(dāng)然的事情,因此,他們通常會增添明確的歸納偏置,而不去把歸納作為第一等需要考慮的事情來做,也不會專門兒去為了支持它而調(diào)整其他的設(shè)計(jì)和設(shè)定。

  1. 你關(guān)于意識的建議很好玩,它和Schmidhuber的“世界中的意識”,F(xiàn)riston的“自由能量原理”,以及霍金的“思想記憶”的想法,有什么關(guān)系呢?

我認(rèn)為Schmidhuber和Friston的統(tǒng)一理論,或多或少的說明了“優(yōu)化控制需要良好的未來預(yù)測,而我在其中的未來預(yù)測,則需要自我呈現(xiàn)”。如果我們拿大型語言模型中的下一個單詞預(yù)測做類比的話,也許就能完美地優(yōu)化下一個狀態(tài)的預(yù)測就足以歸納出所有意識類型的腥味,比如心智理論和我上面提到的有趣的自我反思的例子。然而,這需要一個環(huán)境,在這個環(huán)境中,準(zhǔn)確預(yù)測這種動態(tài)對觀察的可能性有很大的影響。我對Schmidhuber和Fristo的框架其實(shí)也有一些不同的想法,就是它們太籠統(tǒng)了,甚至可以普遍適用于海蛞蝓和人類。如果未來的預(yù)測需要一定的環(huán)境復(fù)雜性,以產(chǎn)生人類能接受的有意識的東西,那么主要的挑戰(zhàn)是明確系統(tǒng)中的最小的復(fù)雜性是什么。

霍金的“意識是感知記憶”的理論似乎等多的與意識的主觀質(zhì)感方面有關(guān),而不是與心靈理論相關(guān)。請注意,大多數(shù)人并不認(rèn)為一個連接numpy數(shù)組的程序能夠像人類那樣“體驗(yàn)到質(zhì)感”的感覺。也許缺少的是元認(rèn)知方面的一些事情,比如策略需要表現(xiàn)出的行為表明,它在思考它所經(jīng)歷的事情。同樣的,這需要一個精心設(shè)計(jì)的環(huán)境來要求這種元認(rèn)知行為。

我認(rèn)為這可以從我前文描述的心智理論模仿問題的訓(xùn)練部分中出現(xiàn),因?yàn)榇砗瘮?shù)將需要訪問關(guān)于它如何感知事物的一致性表征,并通過各種“其他代理的視角”來轉(zhuǎn)化它。能夠通過自己對其他代理 的感知能力的表征,來投射自己對感覺觀察的表征,這種靈活的特性讓我相信,這種代理理解了它可以對質(zhì)感進(jìn)行充分的元認(rèn)知。

  1. 你對意識的表述只關(guān)注心智理論的行為,那對于注意力行為來說又是什么樣的呢?

答:可以參考回答6的第二段。

  1. 在Rich Sutton的Bitter Lesson Essay中,他認(rèn)為搜索和學(xué)習(xí)都很重要。你也認(rèn)為搜索可以完全被學(xué)習(xí)方法所取代嗎?

答:我是這樣認(rèn)為的:如果在你的程序中有一點(diǎn)搜索的話,是能夠?qū)W(xué)習(xí)和整體的表現(xiàn)有極大的幫助的。但這有點(diǎn)像蛋生雞和雞生蛋的關(guān)系一樣。我們想一下,AlphaGo的成功是因?yàn)镸CTS使用了一個可學(xué)習(xí)的價值函數(shù)來搜索所帶來的?然后策略的蒸餾只是因?yàn)樗阉鞑牌鹱饔玫膯??我的建議是,當(dāng)搜索變得太難的時候(很多強(qiáng)化學(xué)習(xí)任務(wù)都是如此),那么可以使用更多的學(xué)習(xí)操作來進(jìn)行訓(xùn)練。其實(shí),在進(jìn)行監(jiān)督學(xué)習(xí)的時候,你仍然在進(jìn)行搜索,有所區(qū)分的是,你在每一次計(jì)算中都能得到更多的梯度信號而已。

原文鏈接:https://evjang.com/2021/10/23/generalization.html

雷鋒網(wǎng)


雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

谷歌科學(xué)家:目標(biāo)優(yōu)化不好使?今天聊聊泛化這件事兒

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說