0
本文作者: 三川 | 2017-02-21 16:38 |
本文旨在加速深度學(xué)習(xí)新手入門,介紹 CNN、DBN、RNN、RNTN、自動編碼器、GAN 等開發(fā)者最常用的深度學(xué)習(xí)模型與架構(gòu)。雷鋒網(wǎng)搜集整理了涉及以上話題的精品文章,供初學(xué)者參考。
深度學(xué)習(xí)元老Yann Lecun詳解卷積神經(jīng)網(wǎng)絡(luò)
Yann Lecun 的 CNN 話題演講+ppt。
鏈接:http://www.ozgbdpf.cn/news/201608/zaB48AcZ1AFm1TaP.html
卷積神經(jīng)網(wǎng)絡(luò)(CNN)新手指南
翻譯自國外的 CNN 教程,解釋詳細(xì),淺顯易懂。本文分為兩部分。
鏈接:http://www.ozgbdpf.cn/news/201607/KjXQ1dFpOQfhTEdK.html
http://www.ozgbdpf.cn/news/201608/GBJqHBnfDhq22qpD.html
卷積神經(jīng)網(wǎng)絡(luò)全面解析
作者自己的博客,歸納總結(jié)了關(guān)鍵知識點,深入淺出。
鏈接:http://www.moonshile.com/post/juan-ji-shen-jing-wang-luo-quan-mian-jie-xi
卷積神經(jīng)網(wǎng)絡(luò)(CNN)學(xué)習(xí)筆記
同樣是博客,重點介紹了 CNN 的網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程。ppt 做得非常用心,分為兩個部分。
鏈接:http://www.jeyzhang.com/cnn-learning-notes-1.html
http://www.jeyzhang.com/cnn-learning-notes-2.html
卷積神經(jīng)網(wǎng)絡(luò)
作者的一些心得體會頗值得參考。
鏈接:http://blog.csdn.net/stdcoutzyx/article/details/41596663
想了解遞歸神經(jīng)網(wǎng)絡(luò)?這里有一份入門教程
零基礎(chǔ)認(rèn)識 RNN,介紹核心知識點。
鏈接:http://www.ozgbdpf.cn/news/201608/syAwLNx4bGPuFYI1.html
理解LSTM網(wǎng)絡(luò)
翻譯而來,原文是講解 LSTM 最受歡迎的英語文章之一,非常值得一讀。如同標(biāo)題,它側(cè)重理解而不是算法實現(xiàn)。譯者的功底很深,語言清楚明白;當(dāng)然,原作者對該話題的理解十分深刻,否則不能把原本晦澀的知識點講解得這么清楚。
鏈接:http://www.jeyzhang.com/understanding-lstm-network.html
谷歌大腦科學(xué)家親解 LSTM:一個關(guān)于“遺忘”與“記憶”的故事
同樣是翻譯而來,同樣是國外 LSTM 最經(jīng)典的介紹文章之一,作者是 Google Brain 科學(xué)家 Christopher Olah。文中示意圖看著有沒有很眼熟?因為它們與上文本是同一套。
鏈接:http://www.ozgbdpf.cn/news/201701/UIlrDBnwiqoQUbqB.html
深度RNN解決語義搜索難題
如何借助 RNN 構(gòu)造語義搜索引擎,本文介紹了三種實現(xiàn)模式。
鏈接:http://www.ozgbdpf.cn/news/201608/qTGP6gqnkefJSgiH.html
遞歸神經(jīng)網(wǎng)絡(luò)之父施米德休:他和DeepMind有不解之緣
順便來點八卦內(nèi)容,看看 RNN 發(fā)明者的開掛人生。
鏈接:http://www.ozgbdpf.cn/news/201603/xEsltgZe9O1pk1NP.html
RNN以及LSTM的介紹和公式梳理
根據(jù)外文教材和論文整理的算法原理和公式。
鏈接:http://blog.csdn.net/Dark_Scope/article/details/47056361
RNTN-遞歸張量神經(jīng)網(wǎng)絡(luò)
簡單介紹 RNTN 的優(yōu)點和原理。
鏈接:http://blog.csdn.net/star_bob/article/details/47835563
國內(nèi)關(guān)于 RNTN 的資料實在太少,在教科書和網(wǎng)上公開課程之外,開發(fā)者可以看看 RNTN 之父 Richard Socher, 的論文:《Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank 》
鏈接:http://nlp.stanford.edu/~socherr/EMNLP2013_RNTN.pdf
Deeplearning4j 還有一個短文,提到了 RNTN 模型的一些搭建要點。
鏈接:https://deeplearning4j.org/recursiveneuraltensornetwork.html
自編碼算法與稀疏性
這是斯坦福百科論壇里,對稀疏自動編碼器的中文介紹,是一篇很好的翻譯文章。
鏈接:http://deeplearning.stanford.edu/wiki/index.php/%E8%87%AA%E7%BC%96%E7%A0%81%E7%AE%97%E6%B3%95%E4%B8%8E%E7%A8%80%E7%96%8F%E6%80%A7
稀疏自動編碼器 (Sparse Autoencoder)
對稀疏自動編碼器的數(shù)學(xué)推導(dǎo)。作者表示,吳恩達(dá)老師的機器學(xué)習(xí)課程講解了這些概念,但受到時間限制不得不略過了推導(dǎo)和數(shù)學(xué)原理部分。本文是對其的補充。
鏈接:https://my.oschina.net/findbill/blog/541143
為什么稀疏自編碼器很少見到多層的?
這是知乎上的問答,不僅回答了以上問題,還梳理了自動編碼器的原理。
鏈接:https://www.zhihu.com/question/41490383
深度學(xué)習(xí)算法實踐13---去噪自動編碼機(Denosing Autoencoder)
對自動編碼器(以及去噪自動編碼器)原理和應(yīng)用的介紹,簡單易懂,對小白十分友好。
鏈接:http://blog.csdn.net/yt7589/article/details/52368608
Deep Learning(深度學(xué)習(xí))學(xué)習(xí)筆記整理
綜合的深度學(xué)習(xí)筆記,涉及它的原理和訓(xùn)練技巧。但它重點對自動編碼器,以及它的兩個變種——稀疏自動編碼器和去噪自動編碼器做了原理介紹。
鏈接:http://www.dataguru.cn/article-3339-2.html
“GANs之父”Goodfellow 38分鐘視頻親授:如何完善生成對抗網(wǎng)絡(luò)?(上)
如題,Ian Goodfellow 在 NIPS 大會上的演講,含部分 ppt。
鏈接:http://www.ozgbdpf.cn/news/201612/eAOGpvFl60EgFSwS.html
“GAN之父”Goodfellow與網(wǎng)友互動:關(guān)于GAN的11個問題(附視頻)
Ian Goodfellow NIPS 大會演講的互動部分,回答了現(xiàn)場嘉賓提問。
鏈接:http://www.ozgbdpf.cn/news/201612/JMWZE6BXRZxB1A6d.html
深度學(xué)習(xí)新星:GAN的基本原理、應(yīng)用和走向 | 硬創(chuàng)公開課
新加坡國立大學(xué)馮佳時教授對 GAN 的綜合講解。
鏈接:http://www.ozgbdpf.cn/news/201701/Kq6FvnjgbKK8Lh8N.html
深度解讀:GAN模型及其在2016年度的進(jìn)展
中科院博士、計算技術(shù)研究所助理教授楊雙對 GAN 的講解。
鏈接:http://www.ozgbdpf.cn/news/201701/Hrv1qUS6GYl1vl7O.html
生成對抗網(wǎng)絡(luò)(GANs )為什么這么火?盤點它誕生以來的主要技術(shù)進(jìn)展
回顧生成對抗網(wǎng)絡(luò) 2014-2016 的四項重大里程碑。
鏈接:http://www.ozgbdpf.cn/news/201612/Cdcb1X9tm1zsGSWD.html
GAN 很復(fù)雜?如何用不到 50 行代碼訓(xùn)練 GAN(基于 PyTorch)
本文作者為前谷歌高級工程師、AI 初創(chuàng)公司 Wavefront 創(chuàng)始人兼 CTO Dev Nag,介紹了他是如何用不到五十行代碼,在 PyTorch 平臺上完成對 GAN 的訓(xùn)練。全套訓(xùn)練代碼發(fā)布于 GitHub,鏈接在文末。
鏈接:http://yingpeng.leiphone.com/article/update?id=161673
GAN學(xué)習(xí)指南:從原理入門到制作生成Demo,總共分幾步?
對 GAN、DCGAN 的原理介紹,對基于 Tensorflow 的 DCGAN 實踐作了簡要說明。
鏈接:http://www.ozgbdpf.cn/news/201701/yZvIqK8VbxoYejLl.html
令人拍案叫絕的 Wasserstein GAN
原始 GAN 的問題以及 WGAN 的優(yōu)點。
鏈接:http://www.ozgbdpf.cn/news/201702/EU12GVIe2pNGtgEk.html
LS-GAN作者詮釋新型GAN:條條大路通羅馬,把GAN建立在Lipschitz密度上
LS-GAN 以及它與 WGAN、GAN 的不同之處。
鏈接:http://www.ozgbdpf.cn/news/201702/QlPJUIqgyw6brWr2.html
GAN的理解與TensorFlow的實現(xiàn)
介紹生成式模型的原理。作者創(chuàng)建了基于 TensorFlow 的 Info-GAN 模型,發(fā)布于 GitHub,文中附鏈接。
鏈接:http://www.ozgbdpf.cn/news/201702/GZsIbIb9V9AUGmb6.html
受限玻爾茲曼機基礎(chǔ)教程
如題,deeplearning4j 的教程。
鏈接:https://deeplearning4j.org/cn/archieved/zh-restrictedboltzmannmachine
受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)
翻譯自國外的 RBM 的實踐教程。
鏈接:http://www.cnblogs.com/tuhooo/p/5440473.html
深度學(xué)習(xí)方法:受限玻爾茲曼機 RBM 網(wǎng)絡(luò)模型
本文分為四部分,是對 RBM 的較詳細(xì)講解,分為四部分。
鏈接:http://blog.csdn.net/xbinworld/article/details/44901865
http://blog.csdn.net/xbinworld/article/details/45013825
http://blog.csdn.net/xbinworld/article/details/45128733
http://blog.csdn.net/xbinworld/article/details/45274289
Deep Learning(深度學(xué)習(xí))學(xué)習(xí)筆記整理系列之(六)
對 RBM 和 DBN 原理知識點的整理。
鏈接:http://blog.csdn.net/zouxy09/article/details/8781396/
深度信念網(wǎng)絡(luò)(Deep Belief Network)
另一篇學(xué)習(xí)筆記整理。
鏈接:http://blog.csdn.net/losteng/article/details/51001247
機器學(xué)習(xí)——DBN深度信念網(wǎng)絡(luò)詳解
對 DBN 的簡要介紹,文中對 RBM 的圖解十分有幫助。
鏈接:http://m.blog.csdn.net/article/details?id=52184189
受限玻爾茲曼機(Restricted Boltzmann Machine, RBM) 簡介
如題,對其算法的簡介。
鏈接:http://www.cnblogs.com/kemaswill/p/3203605.html 雷鋒網(wǎng)版權(quán)雷鋒網(wǎng)版權(quán)
相關(guān)文章:
深度學(xué)習(xí)全網(wǎng)最全學(xué)習(xí)資料匯總之入門篇
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。