0
雷鋒網(wǎng)AI科技評(píng)論按:近日,「GANs 之父」Ian Goodfellow 做客國(guó)外一檔「你問(wèn)我答」(Ask Me Anything)的線上問(wèn)答節(jié)目,提問(wèn)者可以直接對(duì) Ian Goodfellow 提出任何關(guān)于 GANs 的問(wèn)題,下面 AI 科技評(píng)論帶大家圍觀 GANs 發(fā)明的背后都有哪些不為人知的故事。
以下是 AMA 節(jié)目中,Ian Goodfellow 與線上提問(wèn)者的問(wèn)答實(shí)錄,雷鋒網(wǎng)AI 科技評(píng)論做了不改動(dòng)原意的編譯。
Gfred:有傳言說(shuō)你是在一家酒吧想出 GAN 的。你能回憶并描述一下當(dāng)時(shí)的情景嗎?
Ian Goodfellow:這確實(shí)是真的,并不是傳言。我之前在幾次采訪中也講過(guò)這個(gè)故事,「麻省理工科技評(píng)論」「連線」雜志,「英偉達(dá)博客」上都有報(bào)道。
Wired:https://www.wired.com/2017/04/googles-dueling-neural-networks-spar-get-smarter-no-humans-required/
NVIDIA Blog:https://blogs.nvidia.com/blog/2017/06/08/ai-podcast-an-argument-in-a-bar-led-to-the-generative-adversarial-networks-revolutionizing-deep-learning/
MIT Technology Review:
https://www.technologyreview.com/lists/innovators-under-35/2017/inventor/ian-goodfellow/
https://www.technologyreview.com/s/610253/the-ganfather-the-man-whos-given-machines-the-gift-of-imagination/
Gautam Ramachandra:您能否介紹一下實(shí)現(xiàn)以下目標(biāo)函數(shù)所采用的函數(shù)導(dǎo)數(shù)所涉及的步驟。 GAN中是否采用了貝葉斯定理?
以上給出了上述目標(biāo)函數(shù)的導(dǎo)數(shù)
這些方程來(lái)自論文「Generative Adversarial Networks」(http://arxiv.org/pdf/1701.00160.pdf)可以在第 46 頁(yè)和第 47 頁(yè)找到。能不能幫我完成目標(biāo)函數(shù)的函數(shù)導(dǎo)數(shù)推導(dǎo)步驟?
Ian Goodfellow:在這個(gè)回答中,我可能沒(méi)有足夠時(shí)間用 LaTex 格式完成函數(shù)推導(dǎo)的過(guò)程,不過(guò)你可以在「深度學(xué)習(xí)」書(shū)中找到一些有用的信息:http://www.deeplearningbook.org/contents/inference.html。大部分你需要知道的內(nèi)容在方程 19.46 中。
當(dāng)你把這個(gè)方程應(yīng)用到 j(d),你就會(huì)得到一個(gè)新的衍生表達(dá)式,并不需要知道任何有關(guān)函數(shù)導(dǎo)數(shù)的東西。
Avhirup Chakraborty:目前是否有關(guān)于生成模型可遷移的論文和工作?例如:我有一個(gè)用于生成貓和狗圖片的模型,我是否可以利用該模型前面的一些網(wǎng)絡(luò)層來(lái)生成狼和老虎的圖片?
Ian Goodfellow:目前我還不知道在這方面有哪些研究和工作,但我認(rèn)為這是可行的。對(duì)于生成器來(lái)說(shuō),越接近后面輸出端的網(wǎng)絡(luò)層,越容易在不同模型之間共享吧。
Anshuman Suri:這個(gè)問(wèn)題可能有點(diǎn)偏離主題。您認(rèn)為今天重新思考「神經(jīng)元」在深度學(xué)習(xí)模型中的工作方式是唯一能夠解決對(duì)抗樣本中的魯棒性問(wèn)題嗎?在你的一些視頻中,你曾經(jīng)提到過(guò)存在這種普遍性問(wèn)題,因?yàn)檫@些模型都是「線性」(而不是許多人稱(chēng)的「非線性」)。我們是通過(guò)深入探索目前這些神經(jīng)元模型來(lái)找出錯(cuò)誤,還是說(shuō)將完美的激活函數(shù)和數(shù)據(jù)增強(qiáng)/防御混合起來(lái)作為一個(gè)整體模型運(yùn)用到模型中,就能修復(fù)這些問(wèn)題?
Ian Goodfellow:我不認(rèn)為這是完全脫離主題的,因?yàn)?GAN 的鑒別器需要對(duì)由生成器生成的對(duì)抗輸入具有魯棒性。我確實(shí)認(rèn)為我們目前使用的神經(jīng)元很難對(duì)對(duì)抗樣本保持魯棒性,但我覺(jué)得這不是唯一錯(cuò)誤。最近的一些工作表明,如 https://arxiv.org/abs/1801.02774 中提到的,為了確保分類(lèi)器的安全性,我們真的需要重新思考我們的基本原則和策略,而不僅僅是訓(xùn)練我們的模型。
膠囊網(wǎng)絡(luò)確實(shí)比普通模型更能抵御對(duì)抗樣本(參考文章 https://openreview.net/forum?id=HJWLfGWRb),但目前還不清楚這是否是最好的防御方式---在同一數(shù)據(jù)集上的對(duì)抗訓(xùn)練是否能抵御最強(qiáng)攻擊,目前還不知道結(jié)果。
Foivos Diakogiannis:您能否就 GAN 與強(qiáng)化學(xué)習(xí)(RL)之間的相似之處(如果有的話)發(fā)表一下評(píng)論?我對(duì)這兩種網(wǎng)絡(luò)的認(rèn)識(shí)都不是太專(zhuān)業(yè),但據(jù)我淺顯的理解,我認(rèn)為 GAN 上的生成器-鑒別器和強(qiáng)化學(xué)習(xí)中的代理-環(huán)境相互作用的方式非常相近,我的理解對(duì)嗎?
Ian Goodfellow:我或許沒(méi)有資格評(píng)價(jià)強(qiáng)化學(xué)習(xí),但是我認(rèn)為 GAN 是使用強(qiáng)化學(xué)習(xí)來(lái)解決生成建模的一種方式。GAN 案例的一些奇怪的地方在于獎(jiǎng)勵(lì)函數(shù)在行動(dòng)中是完全已知和可微分的,獎(jiǎng)勵(lì)是非穩(wěn)態(tài)的,獎(jiǎng)勵(lì)也是代理策略的一種函數(shù)。但我確實(shí)認(rèn)為它是基于強(qiáng)化學(xué)習(xí)。
Jakub Langr:我發(fā)現(xiàn) GAN 訓(xùn)練中有兩個(gè)或三個(gè)陣營(yíng):OpenAI 和 Google 的人員算一個(gè)陣營(yíng);Mescheder、Sebastian Nowozin 與其他微軟研究院等機(jī)構(gòu)的研究人員是另一個(gè)陣營(yíng)。你認(rèn)為是這樣的嗎?你有類(lèi)似的看法嗎?
Ian Goodfellow:不,我認(rèn)為還有更多的陣營(yíng)。FAIR(Facebook AI 研究院)/ NYU(紐約大學(xué))也是主要參與者。實(shí)際上,F(xiàn)AIR / NYU 是第一個(gè)將 GAN 與 LAPGAN 應(yīng)用在地圖上。這是 GAN 第一次生成真正引人注目的高分辨率圖像,這也是 GAN 第一次得到新聞報(bào)道等。另一個(gè)非常重要的陣營(yíng)是(伯克利+英偉達(dá))Berkeley + NVIDIA 陣營(yíng),他們專(zhuān)注于非常引人注目的高分辨率圖像和視頻,無(wú)監(jiān)督翻譯等。我也不確定你所說(shuō)的「陣營(yíng)」是什么意思。如果你只是指研究 GAN 的不同方法,那么是的,這些團(tuán)隊(duì)傾向于以不同的方式運(yùn)作。不過(guò)很多時(shí)候,「陣營(yíng)」一詞意味著彼此意見(jiàn)不同或相互沖突的群體,我認(rèn)為情況并非如此。
Vineeth Bhaskara:您的論文與 Jurgen Schmidhuber 在 GAN vs PM 上有多遠(yuǎn)?你們倆在這方面還有什么分歧嗎?
Ian Goodfellow:這篇論文已被撤稿了,但我們?nèi)杂蟹制纭?/p>
Adam Ferguson:
1)您如何選擇 GAN 與其他生成模型(如 VAE 和 FVBN)(NADE,MADE,PixelCNN)?我們應(yīng)該使用哪個(gè)框架來(lái)做出這個(gè)決定?
2)第二個(gè)問(wèn)題與論文沒(méi)有直接關(guān)系,像 Librarian / Fermat Library 工具對(duì) ML / DL 等領(lǐng)域來(lái)說(shuō)很重要,因?yàn)檫@些領(lǐng)域的發(fā)論文速度要比期刊快得多。你如何看待這個(gè)領(lǐng)域的未來(lái)?
Ian Goodfellow:先回答第二個(gè)問(wèn)題,我正在做這個(gè) AMA 問(wèn)答,就是來(lái)幫助促進(jìn) Librarian / Fermat Library 工具的普及,因?yàn)槲艺J(rèn)為這些工具需要變得更加為大眾所知。ArXiv 現(xiàn)在基本上是一種繞過(guò)同行評(píng)審的方式篩選論文,它使得深度學(xué)習(xí)論文的信噪比猛降。雖然仍然有很多偉大的深度學(xué)習(xí)工作正在進(jìn)行,但也存在很多低質(zhì)量的工作。即使現(xiàn)在最好的工作也經(jīng)常出現(xiàn)夾雜私貨 -比如一個(gè)好想法寫(xiě)在一篇不公平的營(yíng)銷(xiāo)文章,或是與其他作品比較不準(zhǔn)確的論文中,因?yàn)闆](méi)有任何同行評(píng)審,所以作者變得有點(diǎn)肆無(wú)忌憚了。
再回到第一個(gè)問(wèn)題,如果你想生成連續(xù)變量的真實(shí)樣本,如果你想做無(wú)監(jiān)督翻譯(例如 CycleGAN),或者如果你想做半監(jiān)督學(xué)習(xí),那么你可能需要用到 GAN。如果你想產(chǎn)生離散符號(hào),你可能用不到 GAN,但我們正在努力使它在這方面變得更好。如果你想最大化可能性,你可能也不想用 GAN。
Kushajveer Singh:最近你在 Twitter 上列了 10 篇你認(rèn)為最佳的 GAN 論文,你能寫(xiě)一篇文章列舉一下從初學(xué)者和專(zhuān)家都需要學(xué)習(xí)哪些 GAN 知識(shí),你還有別的資源分享嗎?
Ian Goodfellow:我可能沒(méi)有時(shí)間寫(xiě),而且即便我寫(xiě)了,它也會(huì)很快過(guò)時(shí)。我在 2016 年 12 月編寫(xiě)了關(guān)于 GAN 的大型教程:https://arxiv.org/abs/1701.00160。大家可以去看一下。這里的許多想法今天仍然實(shí)用,當(dāng)然,它不包括 2017 年末以后的現(xiàn)有技術(shù)模型,如漸進(jìn)式 GAN,光譜歸一化 GAN,帶投影鑒別器的 GAN 等。
Rafa Ronaldo:定量評(píng)估 GAN 的標(biāo)準(zhǔn)是什么?
Ian Goodfellow:它取決于你希望拿 GAN 來(lái)做什么。如果你希望將它用于半監(jiān)督學(xué)習(xí),那么就使用測(cè)試集的準(zhǔn)確率度量;如果你希望用于生成用戶(hù)喜歡的圖像(如超分辨率圖像等),那么就需要使用真人來(lái)打分。如果你僅希望使用一般的自動(dòng)化質(zhì)量評(píng)分,那么我認(rèn)為 Frechet Inception Distance ( https://arxiv.org/abs/1706.08500 ) 可能是最好的。當(dāng)然度量方法本身仍然是研究領(lǐng)域中非常重要的一部分。
Andres Diaz-Pinto:現(xiàn)在有方法將隱變量映射到生成圖像的一部分嗎?換句話說(shuō),能否使用幾個(gè)變量改變背景顏色,然后然后另外幾個(gè)個(gè)變量修正形狀或其它的屬性?
Ian Goodfellow:通常情況下是可以實(shí)現(xiàn)的,但我們需要以特定的方式訓(xùn)練模型,參考論文 InfoGAN:https://arxiv.org/abs/1606.03657。
Rafa Ronaldo:很多瘋狂的想法,如 GANs 需要高超的編程技巧來(lái)輔以實(shí)現(xiàn),你是如何提升你的編程技能的?有沒(méi)有推薦的書(shū)?任何特定學(xué)習(xí) Tensorflow 或深度學(xué)習(xí)框架的書(shū)籍都可以。謝謝!
Ian Goodfellow:我學(xué)習(xí)現(xiàn)代深度學(xué)習(xí)編程的路徑非常間接,因?yàn)樵趯W(xué)習(xí)使用 Python 之前,我已經(jīng)學(xué)了各種 C、匯編、網(wǎng)頁(yè)等語(yǔ)言。所以對(duì)于別人,我不確定有什么捷徑可以加速編程的學(xué)習(xí)過(guò)程。在編程能力方面,對(duì)我來(lái)說(shuō)非常重要的一個(gè)轉(zhuǎn)折點(diǎn)就是 2006 年參加 Jerry Cain 在斯坦福開(kāi)設(shè)的 CS107 課程。在那之前,我基本只是一個(gè)編程愛(ài)好者,但上過(guò)課后,基本上我在軟件開(kāi)發(fā)方面就不會(huì)再困惑了?,F(xiàn)在你們也可以在 YouTube 或 iTunes U 等站點(diǎn)找到該課程。
關(guān)于我是如何提升編程技能,因?yàn)槲易隽撕芏嗑幊蹋∥以?11 歲時(shí)學(xué)會(huì)了編程。我的中學(xué)為我們的數(shù)學(xué)課程設(shè)計(jì)了圖形計(jì)算器,并且有人在 TI-BASIC 上編程游戲,并加入了圖形計(jì)算器課程中。我從圖書(shū)館獲得了 https://www.amazon.com/MacFroggy-Teaches-Basic-Amy-Barger/dp/0944838391 的副本,以便了解游戲的工作原理。
我為什么開(kāi)始踏入深度學(xué)習(xí)領(lǐng)域,有一部分原因是我一直在做我最?lèi)?ài)的游戲編程。我一直在使用 OpenGL 著色器語(yǔ)言編寫(xiě)通用 GPU 程序。當(dāng) CUDA 推出時(shí),利用 GPU 進(jìn)行 CUDA 編程實(shí)際上比試圖將數(shù)學(xué)問(wèn)題解決為專(zhuān)門(mén)為圖形設(shè)計(jì)的語(yǔ)言要容易得多。我的朋友 Ethan Dreyfuss 在 Geoff Hinton 關(guān)于深層網(wǎng)絡(luò)的論文出爐后不久告訴了我關(guān)于深度學(xué)習(xí)的內(nèi)容,然后我和 Ethan 一起構(gòu)建了斯坦福大學(xué)的第一臺(tái) CUDA 機(jī)器,以便一起研究深度學(xué)習(xí)。我的第一次深度學(xué)習(xí)計(jì)劃是在 CUDA 中實(shí)施 RBM。與我為編程 GAN 所做的相比,這確實(shí)很困難。當(dāng)我編寫(xiě)第一個(gè) GAN 代碼時(shí),我有很多很好的工具,如 Theano,LISA 實(shí)驗(yàn)室計(jì)算機(jī)集群等。
為什么編寫(xiě) GAN 代碼很容易?有一部分原因是我有一個(gè)非常好的代碼庫(kù),是從很早期的項(xiàng)目就開(kāi)始準(zhǔn)備的。我一直在為我的整個(gè)博士期間的學(xué)習(xí)深度學(xué)習(xí)做準(zhǔn)備,并且有很多類(lèi)似的代碼可以隨時(shí)待命。我的第一個(gè) GAN 實(shí)現(xiàn)主要是來(lái)自 https://arxiv.org/pdf/1302.4389.pdf 的 MNIST 分類(lèi)器的復(fù)制粘貼。
Jason Rotella:GAN 能用于主題建模嗎?現(xiàn)在除了生成模型,GAN 框架還能擴(kuò)展應(yīng)用到其它領(lǐng)域嗎?
Ian Goodfellow:我猜測(cè)是可以用于主題建模的,但目前還沒(méi)聽(tīng)說(shuō)在該領(lǐng)域有哪些具體研究。一個(gè)主要的挑戰(zhàn)即文本建模,文本是由離散的字符、標(biāo)記或單詞組成的,但是 GAN 需要通過(guò)生成器的輸出計(jì)算梯度,因此它只能用于連續(xù)型的輸出。當(dāng)然還是有可能使用對(duì)抗自編碼器或 AVB 等模型,因此生成器實(shí)際上或是一個(gè)編碼器,并能輸出連續(xù)的編碼。這對(duì)于文本建??赡苁欠浅S杏玫膶傩?,因?yàn)樗o出了表征主題的分布。
Rafa Ronaldo:我在 NIPS 會(huì)議上的理論/實(shí)踐研討會(huì)上發(fā)表了關(guān)于 GAN 的演講(我還參加了 LLD 研討會(huì)上的演講 - GAN 創(chuàng)建新數(shù)據(jù))。談話結(jié)束時(shí),Sanjeev Arora 問(wèn)了你一些問(wèn)題,就像 GAN 框架可能不足以學(xué)習(xí)分布,需要添加更多元素。我沒(méi)有完全理解這個(gè)問(wèn)題,你能否解釋為什么 GAN 框架不足以學(xué)習(xí)分布,需要添加哪些元素以及為什么 GAN 在圖像生成任務(wù)中如此順利?感謝 AMA,也感謝您的在線講座和教程,這對(duì)于像我這樣的人來(lái)說(shuō)非常有幫助。
Ian Goodfellow:說(shuō)實(shí)話,我不記得 Sanjeev Arora 在這次演講中究竟是怎么問(wèn)的,我也不明白他的工作需要什么詳細(xì)的答案。
我認(rèn)為他擔(dān)心計(jì)數(shù)問(wèn)題(也可能我認(rèn)為是錯(cuò)的):神經(jīng)網(wǎng)絡(luò)參數(shù)空間中沒(méi)有足夠的不同點(diǎn)來(lái)表示輸入上的所有不同概率分布。如果我正確地表達(dá)了他的關(guān)注,這將適用于任何類(lèi)型的神經(jīng)網(wǎng)絡(luò)生成器,而不僅僅是 GAN,并且有一些出路:可能在現(xiàn)實(shí)生活中,我們不會(huì)遇到任意的概率分布,而只是一些子集非常結(jié)構(gòu)化的,也許我們?cè)诂F(xiàn)實(shí)生活中遇到的分布結(jié)構(gòu)與神經(jīng)網(wǎng)絡(luò)可以有效表示的分布結(jié)構(gòu)一致。
現(xiàn)在深度學(xué)習(xí)和 GAN 有很多不同的話題,我很難跟隨所有這些話題,我很樂(lè)意承認(rèn)這是我所不擅長(zhǎng)的,所以很可能我錯(cuò)誤地表達(dá)了 Sanjeev 的工作。
Greg McInnes:在基因組學(xué)研究中,有用到 GAN 的機(jī)會(huì)嗎?
Ian Goodfellow:我對(duì)基因組學(xué)沒(méi)有太多的了解,但我認(rèn)為用于半監(jiān)督學(xué)習(xí)的 GAN 模型可能會(huì)對(duì)該領(lǐng)域有非常重要的作用。因?yàn)槲礃?biāo)注的基因遠(yuǎn)要比標(biāo)注的基因多,所以半監(jiān)督學(xué)習(xí)有助于利用大量未標(biāo)記數(shù)據(jù)從少數(shù)標(biāo)注樣本中學(xué)習(xí)。
Tim Salimans 為此也開(kāi)發(fā)了一些方法,這些方法在 MNIST 和 SVHN 等基準(zhǔn)測(cè)試中非常高效(https://arxiv.org/abs/1606.03498)。
但值得注意的是,到目前為止,我們發(fā)現(xiàn)其他半監(jiān)督方法實(shí)際上并不能很好地完成任務(wù)(https://openreview.net/forum?id=ByCZsFyPf),半監(jiān)督 GAN 尚未完成測(cè)試。
Kevin Hsu:我看到你的推特發(fā)布評(píng)論 StarGAN。您提到 StarGAN 可以在沒(méi)有監(jiān)督的情況下在多個(gè)域之間進(jìn)行翻譯。據(jù)我所知,雖然 StarGAN 不需要配對(duì)數(shù)據(jù),但仍需要標(biāo)記數(shù)據(jù)來(lái)訓(xùn)練條件圖像生成過(guò)程。我很困惑,為什么你提到它是「沒(méi)有監(jiān)督」。謝謝!
Ian Goodfellow:我的「沒(méi)有監(jiān)督」意思是不需要搭檔來(lái)監(jiān)督翻譯。
Nicholas Teague:我想知道你是否已經(jīng)成功地將 GAN 應(yīng)用于圖像或視頻以外的領(lǐng)域。
Ian Goodfellow:這個(gè)鏈接是我們近來(lái)將 GAN 用于文本數(shù)據(jù)的論文: https://arxiv.org/abs/1801.07736。
Gon?alo Abreu:我認(rèn)為這個(gè)概念真的很巧妙。關(guān)于結(jié)論的第 4 點(diǎn):您如何建議我們只使用 GAN 進(jìn)行特征提?。课业囊馑际牵何覀?nèi)绾未_保由 GAN 架構(gòu)產(chǎn)生的表示是輸入數(shù)據(jù)底層結(jié)構(gòu)的有用表示呢。如果網(wǎng)絡(luò)有足夠的容量,那么沒(méi)有什么能阻止生成器學(xué)習(xí)如何「模仿」輸入數(shù)據(jù),是嗎?
「有可能有兩個(gè)不同的 GAN,其中一個(gè)具有更好的得分,但是在作為外部分類(lèi)器時(shí),從鑒別器中抽取特征要更差或更低效?!惯@種陳述對(duì)嗎?
Ian Goodfellow:你說(shuō)的那個(gè)陳述是對(duì)的,假設(shè)你有一個(gè)完美的生成器,那么對(duì)于所有的 x,P_generator(x)=P_data(x)。那么最優(yōu)判別器 D*(x)= P_data(x)/(P_generator(x)+P_data(x))=1/2,這個(gè)判別器的特征可能完全沒(méi)用,因?yàn)槲覀兛梢詫⑴袆e器的權(quán)重設(shè)為 0 而達(dá)到該效果。
對(duì)于特征提取,一種方法是使用判別器隱藏層的特征,另一種方法就如同自編碼器一樣單獨(dú)學(xué)習(xí)一個(gè)獨(dú)立的編碼器,以下是一些關(guān)于 GAN 編碼器的論文:
對(duì)抗性學(xué)習(xí)推斷:https://arxiv.org/abs/1606.00704
BiGAN:https://arxiv.org/abs/1605.09782
對(duì)抗性自編碼器:https://arxiv.org/abs/1511.05644
對(duì)抗性變分貝葉斯:https://arxiv.org/abs/1701.04722
alpha-GAN:https://arxiv.org/abs/1706.04987
關(guān)于「如果網(wǎng)絡(luò)有足夠的容量,那么就沒(méi)有什么能阻止生成器學(xué)習(xí)如何「模仿」輸入數(shù)據(jù),是嗎?」這個(gè)問(wèn)題,我的回答是:是的,這幾乎與所有生成模型的點(diǎn)估計(jì)量都有關(guān)。如果最大限度地提高無(wú)限容量密度函數(shù)的可能性,則應(yīng)該只記住訓(xùn)練數(shù)據(jù)。在實(shí)踐中,GAN 似乎在配合不足方面比在過(guò)度配合方面更麻煩。這可能是因?yàn)槲覀儾恢廊绾魏芎玫仄胶庥螒颉?/p>
「關(guān)于基于解碼器的生成模型的定量分析」文中發(fā)現(xiàn),GAN 為列車(chē)和測(cè)試集分配相似的可能性。當(dāng)然,可能性很低,因?yàn)?GAN 沒(méi)有經(jīng)過(guò)最大化可能性的訓(xùn)練,并且取決于 z 的維度?,他們甚至可以為所有訓(xùn)練數(shù)據(jù)分配零可能性。論文地址:https://arxiv.org/abs/1611.04273
「GAN 是否真的學(xué)會(huì)了這種分布?」一項(xiàng)實(shí)證研究發(fā)現(xiàn) GAN 學(xué)習(xí)生成的樣本比真正的基礎(chǔ)數(shù)據(jù)生成分布少得多,但比訓(xùn)練數(shù)據(jù)更多樣化。論文地址:https://arxiv.org/pdf/1706.08224.pdf
雷鋒網(wǎng)注:編譯原文出處:https://fermatslibrary.com/arxiv_comments?url=https%3A%2F%2Farxiv.org%2Fpdf%2F1406.2661.pdf
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。