丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給蔣寶尚
發(fā)送

0

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

本文作者: 蔣寶尚 2020-01-14 17:43
導(dǎo)語:Hypernetwork

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

人腦顯然是人工智能追求的最高標準。

畢竟人腦使得人類擁有了連續(xù)學(xué)習(xí)的能力以及情境依賴學(xué)習(xí)的能力。

這種可以在新的環(huán)境中不斷吸收新的知識和根據(jù)不同的環(huán)境靈活調(diào)整自己的行為的能力,也正是深度學(xué)習(xí)系統(tǒng)與人腦相差甚遠的重要原因。

想讓傳統(tǒng)深度學(xué)習(xí)系統(tǒng)獲得連續(xù)學(xué)習(xí)能力,最重要的是克服人工神經(jīng)網(wǎng)絡(luò)會出現(xiàn)的“災(zāi)難性遺忘”問題,即一旦使用新的數(shù)據(jù)集去訓(xùn)練已有的模型,該模型將會失去對原數(shù)據(jù)集識別的能力。

換句話說就是:讓神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)新知識的同時保留舊知識。

前段時間,來自蘇黎世聯(lián)邦理工學(xué)院以及蘇黎世大學(xué)的研究團隊發(fā)表了一篇名為《超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí)》(Continual learning with hypernetworks)的研究。提出了任務(wù)條件化的超網(wǎng)絡(luò)(基于任務(wù)屬性生成目標模型權(quán)重的網(wǎng)絡(luò))。該方法能夠有效克服災(zāi)難性的遺忘問題。

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

具體來說,該方法能夠幫助在針對多個任務(wù)訓(xùn)練網(wǎng)絡(luò)時,有效處理災(zāi)難性的遺忘問題。除了在標準持續(xù)學(xué)習(xí)基準測試中獲得最先進的性能外,長期的附加實驗任務(wù)序列顯示,任務(wù)條件超網(wǎng)絡(luò)(task-conditioned hypernetworks )表現(xiàn)出非常大的保留先前記憶的能力。

hypernetworks

在蘇黎世聯(lián)邦理工學(xué)院以及蘇黎世大學(xué)的這項工作中,最重要的是對超網(wǎng)絡(luò)(hypernetworks)的應(yīng)用,在介紹超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí)之前,雷鋒網(wǎng) AI科技評論先對超網(wǎng)絡(luò)做一下介紹。hyperNetwork是一個非常有名的網(wǎng)絡(luò),簡單說就是用一個網(wǎng)絡(luò)來生成另外一個網(wǎng)絡(luò)的參數(shù)。

工作原理是:用一個hypernetwork輸入訓(xùn)練集數(shù)據(jù),然后輸出對應(yīng)模型的參數(shù),最好的輸出是這些參數(shù)能夠使得在測試數(shù)據(jù)集上取得好的效果。簡單來說hypernetwork其實就是一個meta network。雷鋒網(wǎng) AI科技評認為傳統(tǒng)的做法是用訓(xùn)練集直接訓(xùn)練這個模型,但是如果使用hypernetwork則不用訓(xùn)練,拋棄反向傳播與梯度下降,直接輸出參數(shù),這等價于hypernetwork學(xué)會了如何學(xué)習(xí)圖像識別。

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

論文下載見文末

在《hypernetwork》這篇論文中,作者使用 hyperNetwork 生成 RNN 的權(quán)重,發(fā)現(xiàn)能為 LSTM 生成非共享權(quán)重,并在字符級語言建模、手寫字符生成和神經(jīng)機器翻譯等序列建模任務(wù)上實現(xiàn)最先進的結(jié)果。超網(wǎng)絡(luò)采用一組包含有關(guān)權(quán)重結(jié)構(gòu)的信息的輸入,并生成該層的權(quán)重,如下圖所示。

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

超網(wǎng)絡(luò)生成前饋網(wǎng)絡(luò)的權(quán)重:黑色連接和參數(shù)與主網(wǎng)絡(luò)相關(guān)聯(lián),而橙色連接和參數(shù)與超網(wǎng)絡(luò)相關(guān)聯(lián)。

超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí)模型

在整個工作中,雷鋒網(wǎng) AI科技評發(fā)現(xiàn)作者首先假設(shè)輸入的數(shù)據(jù)面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”,......面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”是可以被儲存的,并能夠使用輸入的數(shù)據(jù)計算面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”。另外,可以將未使用的數(shù)據(jù)和已經(jīng)使用過數(shù)據(jù)進行混合來避免遺忘。假設(shè)F(X,Θ)是模型,那么混合后的數(shù)據(jù)集為{(面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”),。。。,(面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”),(面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”,面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”)},其中其中Y?(T)是由模型f(.,面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”)生成的一組合成目標。然而存儲數(shù)據(jù)顯然違背了連續(xù)學(xué)習(xí)的原則,所以在在論文中,作者提出了一種新的元模型fh(面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”,面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”)做為解決方案,新的解決方案能夠?qū)㈥P(guān)注點從單個的數(shù)據(jù)輸入輸出轉(zhuǎn)向參數(shù)集{面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”},并實現(xiàn)非儲存的要求。這個元模型稱為任務(wù)條件超網(wǎng)絡(luò),主要思想是建立任務(wù)面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”和權(quán)重面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”的映射關(guān)系,能夠降維處理數(shù)據(jù)集的存儲,大大節(jié)省內(nèi)存。

在《超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí)》這篇論文中,模型部分主要有3個部分,第一部分是任務(wù)條件超網(wǎng)絡(luò)。首先,超網(wǎng)絡(luò)會將目標模型參數(shù)化,即不是直接學(xué)習(xí)特定模型的參數(shù),而是學(xué)習(xí)元模型的參數(shù),從而元模型會輸出超網(wǎng)絡(luò)的權(quán)重,也就是說超網(wǎng)絡(luò)只是權(quán)重生成器。

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

圖a:正則化后的超網(wǎng)絡(luò)生成目標網(wǎng)絡(luò)權(quán)重參數(shù);圖b:迭代地使用較小的組塊超網(wǎng)絡(luò)產(chǎn)生目標網(wǎng)絡(luò)權(quán)重。

然后利用帶有超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí)輸出正則化。在論文中,作者使用兩步優(yōu)化過程來引入記憶保持型超網(wǎng)絡(luò)輸出約束。首先,計算?Θh(?Θh的計算原則基于優(yōu)化器的選擇,本文中作者使用Adam),即找到能夠最小化損失函數(shù)的參數(shù)。損失函數(shù)表達式如下圖所示:

 面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

注:Θ? h是模型學(xué)習(xí)之前的超網(wǎng)絡(luò)的參數(shù);?Θh為外生變量;βoutput是用來控制正則化強度的參數(shù)。

然后考慮模型的面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”,它就像面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”一樣。在算法的每一個學(xué)習(xí)步驟中,需要及時更新,并使損失函數(shù)最小化。在學(xué)習(xí)任務(wù)之后,保存最終面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”e并將其添加到集合{面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”}。

模型的第二部分是用分塊的超網(wǎng)絡(luò)進行模型壓縮。超網(wǎng)絡(luò)產(chǎn)生目標神經(jīng)網(wǎng)絡(luò)的整個權(quán)重集。然而,超網(wǎng)絡(luò)可以迭代調(diào)用,在每一步只需分塊填充目標模型中的一部分。這表明允許應(yīng)用較小的可重復(fù)使用的超網(wǎng)絡(luò)。有趣的是,利用分塊超網(wǎng)絡(luò)可以在壓縮狀態(tài)下解決任務(wù),其中學(xué)習(xí)參數(shù)(超網(wǎng)絡(luò)的那些)的數(shù)量實際上小于目標網(wǎng)絡(luò)參數(shù)的數(shù)量。

為了避免在目標網(wǎng)絡(luò)的各個分區(qū)之間引入權(quán)重共享,作者引入塊嵌入的集合{面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”} 作為超網(wǎng)絡(luò)的附加輸入。因此,目標網(wǎng)絡(luò)參數(shù)的全集Θ_trgt=[面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”,,,面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”]是通過在面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”上迭代而產(chǎn)生的,在這過程中保持面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”不變。這樣,超網(wǎng)絡(luò)可以每個塊上產(chǎn)生截然不同的權(quán)重。另外,為了簡化訓(xùn)練過程,作者對所有任務(wù)使用一組共享的塊嵌入。

模型的第三部分:上下文無關(guān)推理:未知任務(wù)標識(context-free inference: unknown task identity)。從輸入數(shù)據(jù)的角度確定要解決的任務(wù)。超網(wǎng)絡(luò)需要任務(wù)嵌入輸入來生成目標模型權(quán)重。在某些連續(xù)學(xué)習(xí)的應(yīng)用中,由于任務(wù)標識是明確的,或者可以容易地從上下文線索中推斷,因此可以立即選擇合適的嵌入。在其他情況下,選擇合適的嵌入則不是那么容易。

作者在論文中討論了連續(xù)學(xué)習(xí)中利用任務(wù)條件超網(wǎng)絡(luò)的兩種不同策略。

策略一:依賴于任務(wù)的預(yù)測不確定性。神經(jīng)網(wǎng)絡(luò)模型在處理分布外的數(shù)據(jù)方面越來越可靠。對于分類目標分布,理想情況下為不可見數(shù)據(jù)產(chǎn)生平坦的高熵輸出,反之,為分布內(nèi)數(shù)據(jù)產(chǎn)生峰值的低熵響應(yīng)。這提出了第一種簡單的任務(wù)推理方法(HNET+ENT),即給定任務(wù)標識未知的輸入模式,選擇預(yù)測不確定性最小的任務(wù)嵌入,并用輸出分布熵量化。

策略二:當生成模型可用時,可以通過將當前任務(wù)數(shù)據(jù)與過去合成的數(shù)據(jù)混合來規(guī)避災(zāi)難性遺忘。除了保護生成模型本身,合成數(shù)據(jù)還可以保護另一模型。這種策略實際上往往是連續(xù)學(xué)習(xí)中最優(yōu)的解決方案。受這些成功經(jīng)驗的啟發(fā),作者探索用回放網(wǎng)絡(luò)(replay network)來增強深度學(xué)習(xí)系統(tǒng)。

合成回放(Synthetic replay)是一種強大但并不完美的連續(xù)學(xué)習(xí)機制,因為生成模式容易漂移,錯誤往往會隨著時間的推移而積累和放大。作者在一系列關(guān)鍵觀察的基礎(chǔ)上決定:就像目標網(wǎng)絡(luò)一樣,重放模型可以由超網(wǎng)絡(luò)指定,并允許使用輸出正則化公式。而不是使用模型自己的回放數(shù)據(jù)。因此,在這種結(jié)合的方法中,合成重放和任務(wù)條件元建模同時起作用,避免災(zāi)難性遺忘。

基準測試

作者使用MNIST、CIFAR10和CIFAR-100公共數(shù)據(jù)集對論文中的方法進行了評估。評估主要在兩個方面:(1)研究任務(wù)條件超網(wǎng)絡(luò)在三種連續(xù)學(xué)習(xí)環(huán)境下的記憶保持能力,(2)研究順序?qū)W習(xí)任務(wù)之間的信息傳遞。具體的在評估實驗中,作者根據(jù)任務(wù)標識是否明確出了三種連續(xù)學(xué)習(xí)場景:CL1,任務(wù)標識明確;CL2,任務(wù)標識不明確,并不需明確推斷;CL3,任務(wù)標識可以明確推斷出來。另外作者在MNIST數(shù)據(jù)集上構(gòu)建了一個全連通的網(wǎng)絡(luò),其中超參的設(shè)定參考了van de Ven & Tolias (2019)論文中的方法。在CIFAR實驗中選擇了ResNet-32作為目標神經(jīng)網(wǎng)絡(luò)。

van de Ven & Tolias (2019):

Gido M. van de Ven and Andreas S. Tolias. Three scenarios for continual learning. arXiv preprint arXiv:1904.07734, 2019.

為了進一步說明論文中的方法,作者考慮了四個連續(xù)學(xué)習(xí)分類問題中的基準測試:非線性回歸,PermutedMNIST,Split-MNIST,Split CIFAR-10/100。

非線性回歸的結(jié)果如下:

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

注:圖a:有輸出正則化的任務(wù)條件超網(wǎng)絡(luò)可以很容易地對遞增次數(shù)的多項式序列建模,同時能夠達到連續(xù)學(xué)習(xí)的效果。圖b:和多任務(wù)直接訓(xùn)練的目標網(wǎng)絡(luò)找到的解決方案類似。圖c:循序漸進地學(xué)習(xí)會導(dǎo)致遺忘。

在PermutedMNIST中,作者并對輸入的圖像數(shù)據(jù)的像素進行隨機排列。發(fā)現(xiàn)在CL1中,任務(wù)條件超網(wǎng)絡(luò)在長度為T=10的任務(wù)序列中表現(xiàn)最佳。在PermutedMNIST上任務(wù)條件超網(wǎng)絡(luò)的表現(xiàn)非常好,對比來看突觸智能(Synaptic Intelligence) ,online EWC,以及深度生成回放( deep generative replay)方法有差別,具體來說突觸智能和DGR+distill會發(fā)生退化,online EWC不會達到非常高的精度,如下圖a所示。綜合考慮壓縮比率與任務(wù)平均測試集準確性,超網(wǎng)絡(luò)允許的壓縮模型,即使目標網(wǎng)絡(luò)的參數(shù)數(shù)量超過超網(wǎng)絡(luò)模型的參數(shù)數(shù)量,精度依然保持恒定,如下圖b所示。

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

Split-MNIST作為另一個比較流行的連續(xù)學(xué)習(xí)的基準測試,在Split-MNIST中將各個數(shù)字有序配對,并形成五個二進制分類任務(wù),結(jié)果發(fā)現(xiàn)任務(wù)條件超網(wǎng)絡(luò)整體性能表現(xiàn)最好。另外在split MNIST問題上任務(wù)重疊,能夠跨任務(wù)傳遞信息,并發(fā)現(xiàn)該算法收斂到可以產(chǎn)生同時解決舊任務(wù)和新任務(wù)的目標模型參數(shù)的超網(wǎng)絡(luò)配置。如下圖所示

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

圖a:即使在低維度空間下仍然有著高分類性能,同時沒有發(fā)生遺忘。圖b:即使最后一個任務(wù)占據(jù)著高性能區(qū)域,并在遠離嵌入向量的情況下退化情況仍然可接受,其性能仍然較高。

在CIFAR實驗中,作者選擇了ResNet-32作為目標神經(jīng)網(wǎng)絡(luò),在實驗過程中,作者發(fā)現(xiàn)運用任務(wù)條件超網(wǎng)絡(luò)基本完全消除了遺忘,另外還會發(fā)生前向信息反饋,這也就是說與從初始條件單獨學(xué)習(xí)每個任務(wù)相比,來自以前任務(wù)的知識可以讓網(wǎng)絡(luò)表現(xiàn)更好。

綜上,在論文中作者提出了一種新的連續(xù)學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)應(yīng)用模型--任務(wù)條件超網(wǎng)絡(luò),該方法具有可靈活性和通用性,作為獨立的連續(xù)學(xué)習(xí)方法可以和生成式回放結(jié)合使用。該方法能夠?qū)崿F(xiàn)較長的記憶壽命,并能將信息傳輸?shù)轿磥淼娜蝿?wù),能夠滿足連續(xù)學(xué)習(xí)的兩個基本特性。

參考文獻:

HYPERNETWORKS:

https://arxiv.org/pdf/1609.09106.pdf

CONTINUAL LEARNING WITH HYPERNETWORKS

https://arxiv.org/pdf/1906.00695.pdf

https://mp.weixin.qq.com/s/hZcVRraZUe9xA63CaV54Yg

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

面向超網(wǎng)絡(luò)的連續(xù)學(xué)習(xí):新算法讓人工智能不再“災(zāi)難性遺忘”

分享:
相關(guān)文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說