丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給深度學(xué)習(xí)大講堂
發(fā)送

0

深度:生成模型(GAN)的最新進(jìn)展

本文作者: 深度學(xué)習(xí)大講堂 2016-09-01 15:17
導(dǎo)語:GAN的簡介和最新進(jìn)展介紹。

雷鋒網(wǎng)按:本文作者李嫣然,香港理工大學(xué)在讀博士生,研究方向?yàn)樽匀徽Z言理解與對話生成。

摘要

在過去一兩年中,生成式模型 Generative Adversarial Networks(GAN)的新興為生成式任務(wù)帶來了不小的進(jìn)展。盡管 GAN 在被提出時(shí)存在訓(xùn)練不穩(wěn)定等諸多問題,但后來的研究者們分別從模型、訓(xùn)練技巧和理論等方面對它做了改進(jìn)。本文旨在梳理這些相關(guān)工作。

盡管大部分時(shí)候,有監(jiān)督學(xué)習(xí)比無監(jiān)督的能獲得更好的訓(xùn)練效果。但真實(shí)世界中,有監(jiān)督學(xué)習(xí)需要的數(shù)據(jù)標(biāo)注(label)是相對少的。所以研究者們從未放棄去探索更好的無監(jiān)督學(xué)習(xí)策略,希望能從海量的無標(biāo)注數(shù)據(jù)中學(xué)到對于這個(gè)真實(shí)世界的表示(representation)甚至知識,從而去更好地理解我們的真實(shí)世界。

評價(jià)無監(jiān)督學(xué)習(xí)好壞的方式有很多,其中生成任務(wù)就是最直接的一個(gè)。只有當(dāng)我們能生成/創(chuàng)造我們的真實(shí)世界,才能說明我們是完完全全理解了它。然而,生成任務(wù)所依賴的生成式模型(generative models)往往會(huì)遇到兩大困難。

  1. 首先是我們需要大量的先驗(yàn)知識去對真實(shí)世界進(jìn)行建模,其中包括選擇什么樣的先驗(yàn)、什么樣的分布等等。而建模的好壞直接影響著我們的生成模型的表現(xiàn)。

  2. 另一個(gè)困難是,真實(shí)世界的數(shù)據(jù)往往很復(fù)雜,我們要用來擬合模型的計(jì)算量往往非常龐大,甚至難以承受。

而在過去一兩年中,有一個(gè)讓人興奮的新模型,則很好地避開了這兩大困難。這個(gè)模型叫做 Generative Adversarial Networks(GAN),由 [1] 提出。在原始的 GAN paper [1] 中,作者是用博弈論來闡釋了 GAN 框架背后的思想。每一個(gè) GAN 框架,都包含著一對模型 —— 一個(gè)生成模型(G)和一個(gè)判別模型(D)。因?yàn)?D 的存在,才使得 GAN 中的 G 不再需要對于真實(shí)數(shù)據(jù)的先驗(yàn)知識和復(fù)雜建模,也能學(xué)習(xí)去逼近真實(shí)數(shù)據(jù),最終讓其生成的數(shù)據(jù)達(dá)到以假亂真的地步 —— D 也無法分別 —— 從而 G 和 D 達(dá)到了某種納什均衡。

[1] 的作者曾在他們的 slides 中,給出過一個(gè)比喻:在 GAN 中,生成模型(G)和判別模型(D)是小偷與警察的關(guān)系。G 生成的數(shù)據(jù),目標(biāo)是要騙過身為警察的判別模型(D)。也就是說,G 作為小偷,要盡可能地提高自己的偷竊手段,而 D 作為警察也要盡可能地提高自己的業(yè)務(wù)水平防止被欺騙。所以,GAN 框架下的學(xué)習(xí)過程就變成了一種生成模型 (G) 和判別模型 (D) 之間的競爭過程 —— 隨機(jī)從真實(shí)樣本和由生成模型 (G) 生成出的 “假樣本” 中取一個(gè),讓判別模型 (D) 去判斷是否為真。所以,體現(xiàn)在公式上,就是下面這樣一個(gè) minmax 的形式。

深度:生成模型(GAN)的最新進(jìn)展

然而,GAN 雖然不再需要預(yù)先建模,但這個(gè)優(yōu)點(diǎn)同時(shí)也帶來了一些麻煩。那就是盡管它用一個(gè) noise z 作為先驗(yàn),但生成模型如何利用這個(gè) z,是無法控制的。也就是說,GAN 的學(xué)習(xí)模式太過于自由了,使得 GAN 的訓(xùn)練過程和訓(xùn)練結(jié)果很多時(shí)候都不太可控。為了穩(wěn)定 GAN ,后來的研究者們分別從 heuristic 、 模型改進(jìn)和理論分析的角度上提出了許多訓(xùn)練技巧和改進(jìn)方法。

比如在原始 GAN 論文 [1] 中,每次學(xué)習(xí)參數(shù)的更新過程,被設(shè)為 D 更新 k 回, G 才更新 1 回,就是出于減少 G 的 “自由度” 的考慮。

深度:生成模型(GAN)的最新進(jìn)展

另一篇重量級的關(guān)于 GAN 訓(xùn)練技巧的研究的工作便是 Deep Convolutional Generative Adversarial Networks(DCGAN)[6] 。[6] 中總結(jié)了許多對于 GAN 這的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)和針對 CNN 這種網(wǎng)絡(luò)的訓(xùn)練經(jīng)驗(yàn)。比如,他們用 strided convolutional networks 替代傳統(tǒng) CNN 中的 pooling 層,從而將 GAN 中的生成模型 (G)變成了 fully differentiable 的,結(jié)果使得 GAN 的訓(xùn)練更加穩(wěn)定和可控。

為了提高訓(xùn)練的穩(wěn)定性,另一個(gè)很自然的角度就是改變學(xué)習(xí)方法。把純無監(jiān)督的 GAN 變成半監(jiān)督或者有監(jiān)督的。這便可以為 GAN 的訓(xùn)練加上一點(diǎn)點(diǎn)束縛,或者說加上一點(diǎn)點(diǎn)目標(biāo)。[2] 中提出的 Conditional Generative Adversarial Nets (CGAN)便是十分直接的模型改變,在生成模型(G)和判別模型(D)的建模中均引入 conditional variable y,這個(gè) y 就是數(shù)據(jù)的一種 label。也因此,CGAN 可以看做把無監(jiān)督的 GAN 變成有監(jiān)督的模型的一種改進(jìn)。這個(gè)簡單直接的改進(jìn)被證明非常有效,并廣泛用于后續(xù)的相關(guān)工作中。

深度:生成模型(GAN)的最新進(jìn)展

第三種改進(jìn) GAN 過于自由的思路,和第一種會(huì)比較相似。既然太難控制 GAN 的學(xué)習(xí),不如我們就拆解一下,不要讓 GAN 一次學(xué)完全部的數(shù)據(jù),而是讓 GAN 一步步完成這個(gè)學(xué)習(xí)過程。具體到圖片生成來說就是,不要讓 GAN 中的生成模型(G)每次都直接生成一整張圖片,而是讓它生成圖片的一部分。這個(gè)思想可以認(rèn)為是 DeepMind 也很有名的工作 DRAW 的一種變形。DRAW 的論文 [3] 開篇就說,我們?nèi)祟愒诶L制一張圖片時(shí),很少是一筆完成的。既然我們?nèi)祟惗疾皇沁@樣,為什么我們要寄希望于機(jī)器可以做到呢?

論文 [4] 中提出的 LAPGAN 就是基于這個(gè)思想,將 GAN 的學(xué)習(xí)過程變成了 sequential “序列式” 的。 具體上,LAPGAN 采用了 Laplacian Pyramid 實(shí)現(xiàn)了 “序列化” ,也因此起名做 LAPGAN 。值得一提的是,這個(gè) LAPGAN 中也有 “殘差” 學(xué)習(xí)的思想(與后來大火的 ResNet 也算是有一點(diǎn)關(guān)聯(lián))。在學(xué)習(xí)序列中,LAPGAN 不斷地進(jìn)行 downsample 和 upsample 操作,然后在每一個(gè) Pyramid level 中,只將殘差傳遞給判別模型(D)進(jìn)行判斷。這樣的 sequential + 殘差結(jié)合的方式,能有效減少 GAN 需要學(xué)習(xí)的內(nèi)容和難度,從而達(dá)到了 “輔助” GAN 學(xué)習(xí)的目的。

深度:生成模型(GAN)的最新進(jìn)展

另一個(gè)基于 sequential 思想去改進(jìn) GAN 的工作來自于 [5] 中的 GRAN。與 LAPGAN [4] 每一個(gè) sequential step(Pyramid level)都是獨(dú)立訓(xùn)練的不同的是,GRAN 把 GAN 和 LSTM 結(jié)合,讓 sequence 中的每一步學(xué)習(xí)和生成能充分利用上一步的結(jié)果。具體上來看,GRAN 的每一步都有一個(gè)像 LSTM 中的 cell,C_t,它決定了每一步生成的內(nèi)容和結(jié)果;GRAN 中的 h_{c,t} 也如 LSTM 一樣,代表著 hidden states 。既然是結(jié)合 LSTM 和 GAN,那么說完了 LSTM 方面的引入,便是 GAN 方面的了。GRAN 將 GAN 中生成模型(G)的先驗(yàn)也進(jìn)行了建模,變成了 hidden of prior h_z;然后將 h_z 和 h_{c,t} 拼接(concatenate)之后傳遞給每一步的 C_t。

深度:生成模型(GAN)的最新進(jìn)展

最后一種改進(jìn) GAN 的訓(xùn)練穩(wěn)定性的方式則更加貼近本質(zhì),也是最新的研究成果。這便是號稱 openAI 近期五大突破之一的 infoGAN [7] 。InfoGAN [7] 的出發(fā)點(diǎn)是,既然 GAN 的自由度是由于僅有一個(gè) noise z,而無法控制 GAN 如何利用這個(gè) z。那么我們就盡量去想辦法在 “如何利用 z” 上做文章。于是,[7] 中將 z 做了拆解,認(rèn)為 GAN 中生成模型(G)應(yīng)該包含的 “先驗(yàn)” 分成兩種: 

(1)不能再做壓縮的 noise z;

(2)和可解釋地、有隱含意義的一組隱變量 c_1, c_2, …, c_L,簡寫為 c 。這里面的思想主要是,當(dāng)我們學(xué)習(xí)生成圖像時(shí),圖像有許多可控的有含義的維度,比如筆劃的粗細(xì)、圖片的光照方向等等,這些便是 c ;而剩下的不知道怎么描述的便是 z 。

這樣一來,[7] 實(shí)際上是希望通過拆解先驗(yàn)的方式,讓 GAN 能學(xué)出更加 disentangled 的數(shù)據(jù)表示(representation),從而既能控制 GAN 的學(xué)習(xí)過程,又能使得學(xué)出來的結(jié)果更加具備可解釋性。為了引入這個(gè) c ,[7] 利用了互信息的建模方式,即 c 應(yīng)該和生成模型 (G)基于 z 和 c 生成的圖片,即 G ( z,c ),高度相關(guān) —— 互信息大。

利用這種更加細(xì)致的隱變量建??刂?,infoGAN 可以說將 GAN 的發(fā)展又推動(dòng)了一步。首先,它們證明了 infoGAN 中的 c 對于 GAN 的訓(xùn)練是有確實(shí)的幫助的,即能使得生成模型(G)學(xué)出更符合真實(shí)數(shù)據(jù)的結(jié)果。其次,他們利用 c 的天然特性,控制 c 的維度,使得 infoGAN 能控制生成的圖片在某一個(gè)特定語義維度的變化。

深度:生成模型(GAN)的最新進(jìn)展

然而實(shí)際上, infoGAN 并不是第一個(gè)將信息論的角度引入 GAN 框架的工作。這是因?yàn)?,?infoGAN 之前,還有一個(gè)叫做 f-GAN [8] 的工作。并且,GAN 本身也可以從信息論角度去解釋。如本文開篇所說,在原始 GAN 論文 [1] 中,作者是通過博弈論的角度解釋了 GAN 的思想。然而,GAN 的生成模型(G)產(chǎn)生的數(shù)據(jù)和真實(shí)數(shù)據(jù)就可以看做一顆硬幣的兩面。當(dāng)拋硬幣拋到正面時(shí),我們就將一個(gè)真實(shí)數(shù)據(jù)樣本展示給判別模型(D);反之,則展示由生成模型 (G)生成的“假”樣本。

而 GAN 的理想狀態(tài)是,判別模型(D)對于硬幣的判斷幾乎等同于隨機(jī),也就是生成模型(G)產(chǎn)生的數(shù)據(jù)完全符合真實(shí)數(shù)據(jù)。那么這時(shí)候,GAN 的訓(xùn)練過程實(shí)際在做的就是最小化這顆硬幣和真實(shí)數(shù)據(jù)之間的互信息。互信息越小,判別模型(D)能從觀察中獲得的信息越少,也就越只能像 “隨機(jī)” 一樣猜結(jié)果。既然有了這樣一個(gè)從互信息角度的對于 GAN 的理解,那么是否能對 GAN 進(jìn)行更進(jìn)一步的改造呢?其實(shí)是可以的。比如可以把針對互信息的建模更進(jìn)一步地泛化為基于 divergence 的優(yōu)化目標(biāo)。這方面的討論和改進(jìn)可以見論文 [8],f-GAN 。

上面這些對于 GAN 的改進(jìn)工作都幾乎是在短短一年半時(shí)間內(nèi)完成的,尤其是近半年。這里面最大的原因就在于 GAN 相較于以前的 generative models,巧妙地將 “真假” 樣本轉(zhuǎn)換為一種隱性的 label,從而實(shí)現(xiàn)了一種 “無監(jiān)督” 的生成式模型訓(xùn)練框架。這種思想也可以從某種程度上看做 word2vec 中 Skip-Gram 的一種變形。未來,不僅僅是 GAN 的更多改進(jìn)值得被期待,無監(jiān)督學(xué)習(xí)和生成式模型的發(fā)展也同樣值得關(guān)注。

References:

1.《Generative Adversarial Nets》

2.《Conditional Generative Adversarial Nets》

3.《DRAW: A Recurrent Neural Network For Image Generation》

4.《Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks》

5.《Generating Images with Recurrent Adversarial Networks》

6.《Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks》

7.《InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets》

8.《f-GAN: Training Generative Neural Samplers using Variational Divergence Minimization》

雷鋒網(wǎng)注:本文由深度學(xué)習(xí)大講堂授權(quán)雷鋒網(wǎng)發(fā)布,如需轉(zhuǎn)載請聯(lián)系原作者并注明作者出處,不得刪減內(nèi)容。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

深度:生成模型(GAN)的最新進(jìn)展

分享:
相關(guān)文章

專欄作者

高質(zhì)量原創(chuàng)內(nèi)容平臺,學(xué)術(shù)界、工業(yè)界一線專家撰稿,致力于推送人工智能與深度學(xué)習(xí)最新技術(shù)、產(chǎn)品和活動(dòng)。
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說