丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給汪思穎
發(fā)送

0

伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。

本文作者: 汪思穎 編輯:楊曉凡 2017-07-21 17:50
導(dǎo)語:伯克利AI研究所帶來了他們的最新研究——未知模型元學(xué)習(xí)法(MAML)。這種方法非常簡單,并且優(yōu)于已知的很多方法。

雷鋒網(wǎng) AI科技評論按:伯克利AI研究所帶來了他們的最新研究——未知模型元學(xué)習(xí)法(MAML)。它不會對模型的形式做任何假設(shè),也沒有為元學(xué)習(xí)引入額外的參數(shù),極易應(yīng)用于許多領(lǐng)域,包括分類、回歸和強化學(xué)習(xí)。這種方法非常簡單,并且優(yōu)于已知的很多方法。

雷鋒網(wǎng) AI科技評論將其編譯如下:

智能的一個關(guān)鍵層面是多才多藝——即擁有做許多不同事情的能力。目前的人工智能系統(tǒng)擅長掌握單一技能,如精通圍棋的Go、深度回答能力超強的Watson,甚至還有自動控制直升機系統(tǒng)。但是,當(dāng)你讓人工智能系統(tǒng)去做不同種類看似簡單的問題時,它就會舉步維艱。在《Jeopardy》中的智力問答冠軍Watson不能交談,一個能熟練操控直升機飛行的系統(tǒng)不能應(yīng)用于其他新的、簡單的情形,比如為了撲滅火災(zāi),進(jìn)行定位、飛行和懸停操作。相比之下,人類可以做很多事,智能地適應(yīng)各種新的、未曾看過的情形。怎樣才能使人工智能變得像人一樣多才多藝呢?

已經(jīng)有了幾種技術(shù)來解決上述問題,在這篇文章中,伯克利AI研究所評價了這些技術(shù),同時討論了他們針對上述問題的最新技術(shù)——未知模型元學(xué)習(xí)法(點擊打開關(guān)于這個方法的論文以及代碼)。

當(dāng)前的AI系統(tǒng)能從零開始學(xué)習(xí),花費大量的時間和經(jīng)驗掌握一項復(fù)雜的技能。但是,如果希望系統(tǒng)能夠掌握許多技能并適應(yīng)多種狀況,從零開始逐個技能逐步訓(xùn)練的代價太大了?,F(xiàn)在需要系統(tǒng)重用以前的經(jīng)驗,更快地學(xué)習(xí)新任務(wù),而不是從頭學(xué)習(xí)。這種方法叫學(xué)會學(xué)習(xí)或元學(xué)習(xí),是通往全能型系統(tǒng)的關(guān)鍵踏腳石,這種通用系統(tǒng)在生命期內(nèi)能從大量任務(wù)中持續(xù)不斷地學(xué)習(xí)。

什么是學(xué)會學(xué)習(xí),它現(xiàn)在都有哪些應(yīng)用?

最早的元學(xué)習(xí)方法可以追溯到上世紀(jì)80年代末和90年代初,Jürgen Schmidhuber的論文、Yoshua和Samy Bengio的工作中都有提到。近年來,元學(xué)習(xí)成為熱門話題,關(guān)于它的論文席卷而來。它最常用在這些地方:超參數(shù)和神經(jīng)網(wǎng)絡(luò)優(yōu)化,發(fā)掘好的網(wǎng)絡(luò)架構(gòu),小樣本圖像識別和快速的強化學(xué)習(xí)。

伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。

伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。

上圖是幾種常見的元學(xué)習(xí)方法

小樣本學(xué)習(xí)

2015年,Brendan Lake等人發(fā)表了一篇論文,挑戰(zhàn)了現(xiàn)代機器學(xué)習(xí)方法。他們指出機器可以通過一個概念中的單個或幾個例子學(xué)會新的概念。例如,Lake認(rèn)為人類可以只看到一張圖片(如下圖所示)就學(xué)會識別“新型雙輪車”,而在這之前的機器則不能像人一樣泛化概念。(對于從未見過的字母表中的字符,人類也可以在見過一個示例之后將它畫出來)。

伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。

和論文一起,Lake還公布了Omniglot數(shù)據(jù)集,這個數(shù)據(jù)集是MNIST的“轉(zhuǎn)置”,共計1623類字符,每類包含20個樣本。很快,緊隨2016年ICML的論文,出現(xiàn)了兩種深度學(xué)習(xí)模型,它們使用的是記憶增強神經(jīng)網(wǎng)絡(luò)和順序生成模型,這表明,深度模型通過少量例子學(xué)會學(xué)習(xí)是可能的,雖然還沒有達(dá)到人類的水平。

目前元學(xué)習(xí)方法的工作原理

先是讓系統(tǒng)接觸大量的任務(wù)進(jìn)行訓(xùn)練,然后再測試這個系統(tǒng)學(xué)習(xí)新任務(wù)的能力。比如會有這樣的任務(wù):要識別一張新圖像是五個分類中的哪一個,每個分類只有一張示例圖像;或?qū)W會在一次遍歷之后高效的走出迷宮。這與許多標(biāo)準(zhǔn)的機器學(xué)習(xí)技術(shù)不同,它們的方法是在單個任務(wù)上進(jìn)行訓(xùn)練,在任務(wù)中單獨留出的樣例中進(jìn)行測試。

伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。

元學(xué)習(xí)過程中,在元訓(xùn)練集中訓(xùn)練模型學(xué)習(xí)任務(wù)。有兩種優(yōu)化在起作用——一種是學(xué)習(xí)器,它負(fù)責(zé)學(xué)習(xí)新任務(wù);另一種是元學(xué)習(xí)器,它負(fù)責(zé)訓(xùn)練學(xué)習(xí)器。元學(xué)習(xí)的方法通常分為三類:循環(huán)模型、度量學(xué)習(xí)和學(xué)習(xí)優(yōu)化器法。

循環(huán)模型

有一些做法可以訓(xùn)練出一個循環(huán)模型,例如LSTM網(wǎng)絡(luò),先是連續(xù)地接收數(shù)據(jù)集,然后處理來自目標(biāo)任務(wù)的輸入。對于圖像識別來說,可能需要持續(xù)把數(shù)據(jù)集中成對的圖像—標(biāo)簽對傳遞給網(wǎng)絡(luò),然后再傳遞要識別的新樣例。

伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。

元學(xué)習(xí)器使用梯度下降法,而學(xué)習(xí)器只是簡單地在循環(huán)網(wǎng)絡(luò)中執(zhí)行。這是最常見的方法之一,已經(jīng)被用于小樣本識別和回歸、元強化學(xué)習(xí)。由于其靈活性,這種方法比其他方法(從元的角度)更低效,因為學(xué)習(xí)器網(wǎng)絡(luò)需要從零開始找到學(xué)習(xí)策略。

度量學(xué)習(xí)

這種方法需要學(xué)習(xí)一個度量空間,在這個空間里學(xué)習(xí)特別高效。該方法主要用于小樣本識別。直觀地說,如果目標(biāo)是從少量的樣本圖像中學(xué)習(xí),那么有一種簡單的方法是用已有的樣本圖像與試圖識別的圖像作比較。

但是,正如你可能想象的那樣,在像素空間中比較圖像不會起到很好的效果。你可以在一個訓(xùn)練好的度量空間里訓(xùn)練孿生網(wǎng)絡(luò)或執(zhí)行比較。與以前的方法一樣,元學(xué)習(xí)使用梯度下降法(或你偏好的神經(jīng)網(wǎng)絡(luò)優(yōu)化器),鑒于學(xué)習(xí)器扮演的角色是元訓(xùn)練度量空間中的對比體系,例如近鄰算法。這些方法可以很好地用于小樣本識別,即使在回歸或強化學(xué)習(xí)等其他元學(xué)習(xí)領(lǐng)域尚未證實有同樣的效果。

學(xué)習(xí)優(yōu)化器法

最后一個方法是學(xué)習(xí)優(yōu)化器法。在這種方法中,一個網(wǎng)絡(luò)(元學(xué)習(xí)器)學(xué)習(xí)更新另一個網(wǎng)絡(luò)(學(xué)習(xí)器),以便學(xué)習(xí)器高效地學(xué)習(xí)任務(wù)。為了更好地優(yōu)化神經(jīng)網(wǎng)絡(luò),人們對這種方法進(jìn)行了廣泛的研究。元學(xué)習(xí)器通常是循環(huán)網(wǎng)絡(luò),以便記住之前是如何校正學(xué)習(xí)器模型的。元學(xué)習(xí)器可以用強化學(xué)習(xí)或監(jiān)督學(xué)習(xí)的方式來訓(xùn)練。Ravi和Larochelle最近演示了這種方法用于小樣本圖像識別的優(yōu)點,提出了這樣的觀點:學(xué)習(xí)器模型也是一種需要學(xué)習(xí)的優(yōu)化過程。

像元學(xué)習(xí)一樣學(xué)會初始化

可以證明,目前為止,遷移學(xué)習(xí)最大的成果是用ImageNet預(yù)訓(xùn)練來初始化視覺網(wǎng)絡(luò)權(quán)重。特別是,當(dāng)處理新的視覺任務(wù)時,眾所周知的范式是首先為任務(wù)收集帶標(biāo)簽的數(shù)據(jù)集,得到預(yù)訓(xùn)練過的ImageNet分類器,然后利用梯度下降法,基于采集到的數(shù)據(jù)來微調(diào)網(wǎng)絡(luò)。使用這種方法,神經(jīng)網(wǎng)絡(luò)可以更有效地從更少的數(shù)據(jù)集中學(xué)習(xí)新的基于圖像的任務(wù)。

然而,預(yù)訓(xùn)練的效果也就這樣。因為網(wǎng)絡(luò)的最底層仍然需要高度適應(yīng)新的任務(wù),像小樣本學(xué)習(xí)那樣太小的數(shù)據(jù)集仍會造成嚴(yán)重的過擬合。此外,遺憾的是現(xiàn)在在語音、語言和控制等非視覺領(lǐng)域沒有類似的預(yù)訓(xùn)練體系。從微調(diào)的方法既然取得了這么好得效果,有什么可以借鑒的嗎?

未知模型元學(xué)習(xí)法(Model-Agnostic Meta-Learning ,MAML)

需要找到能夠根據(jù)少量樣本高效地進(jìn)行微調(diào)的表征,那么有沒有可能直接對初始表征做優(yōu)化呢?這是伯克利AI研究所最近提出的未知模型元學(xué)習(xí)法(MAML)背后的想法。和其他元學(xué)習(xí)法一樣,MAML能在大量不同的任務(wù)上訓(xùn)練,通過少量的梯度步驟,能快速得到適應(yīng)新任務(wù)的表征。

元學(xué)習(xí)器試圖找到一個初始值,不僅可以適應(yīng)各種問題,而且可以快速(只需少量步驟)高效(只使用幾個例子)地適應(yīng)。下面是一個可視化圖–假設(shè)我們正試圖尋找一組具有高度適應(yīng)性的參數(shù)θ,在元學(xué)習(xí)過程中(粗線),MAML優(yōu)化一組參數(shù),以便當(dāng)執(zhí)行關(guān)于某個任務(wù)i(灰線)的梯度步驟時,參數(shù)接近i任務(wù)的最優(yōu)參數(shù)θi*。

 伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。

這種方法非常簡單,并且有許多優(yōu)點。它不會對模型的形式做任何假設(shè)。它相當(dāng)有效——沒有為元學(xué)習(xí)引入額外的參數(shù),并且使用已知的優(yōu)化過程(梯度下降法),而不是必須從零開始想出策略。最后,它極易應(yīng)用于許多領(lǐng)域,包括分類、回歸和強化學(xué)習(xí)。

盡管這種方法很簡單,令人驚訝的是,它在流行的小樣本圖像識別基準(zhǔn)、Omniglot和MiniImageNet2上優(yōu)于現(xiàn)在的許多方法,包括更復(fù)雜的或適用于特定領(lǐng)域的方法。

除了識別之外,他們還試圖學(xué)習(xí)如何讓模擬機器人的行為適應(yīng)不同的目標(biāo),這類似于文章最開始提到多才多藝性。為此,他們將MAML與強化學(xué)習(xí)中的策略梯度方法結(jié)合。通過MAML可以學(xué)到一種策略,它可以讓模擬機器人在單一的梯度更新中適應(yīng)移動方向和速度。請看如下視頻:伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。 

MAML on HalfCheetah

伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。

MAML on Ant

該方法的泛化性——它可以與任何足夠平滑的模型結(jié)合,這樣就可以用基于梯度的方法進(jìn)行優(yōu)化了——這使得MAML不只適用于本文中探討的案例,還適用于廣泛的領(lǐng)域和學(xué)習(xí)目標(biāo)。

MAML方法能夠有效教會系統(tǒng)適應(yīng)不同場景,他們也希望這能有助于更快地開發(fā)出能夠在現(xiàn)實世界中學(xué)到多種技能的多功能人工智能。

via:bair.berkeley.edu/blog

雷鋒網(wǎng) AI科技評論編譯

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

伯克利AI研究所:新型元學(xué)習(xí)法MAML的前世今生。

分享:
相關(guān)文章

編輯

關(guān)注AI學(xué)術(shù),例如論文
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說