丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給隔壁王大喵
發(fā)送

0

學(xué)不學(xué)吳恩達(dá) deeplearning.ai 課程,看完這篇你就知道了

本文作者: 隔壁王大喵 編輯:楊曉凡 2018-03-31 13:35
導(dǎo)語(yǔ):吳恩達(dá)的網(wǎng)課 deeplearning.ai 到底適不適合自己呢?快來(lái)看看學(xué)員 Thomas 怎么說(shuō)的。

雷鋒網(wǎng) AI 科技評(píng)論按:本文的作者是 Thomas Treml,是一名具有社會(huì)學(xué)背景的數(shù)據(jù)科學(xué)自由職業(yè)者。他在 Medium 上分享了自己學(xué)習(xí) deeplearning.ai 課程的經(jīng)歷與感想。由雷鋒網(wǎng) AI 科技評(píng)論進(jìn)行編譯。

學(xué)不學(xué)吳恩達(dá) deeplearning.ai 課程,看完這篇你就知道了

最近我剛剛完成了 Andrew Ng(吳恩達(dá)) 在 Coursera 上的 deeplearning.ai 的專(zhuān)業(yè)化課程,所以我想與大家分享一下我在學(xué)習(xí)這套課程中的想法以及經(jīng)驗(yàn)。我之前發(fā)現(xiàn)由 Arvind N 撰寫(xiě)的關(guān)于前三堂課程的回顧非常有用,尤其是幫助了我下定決心開(kāi)始學(xué)習(xí)這門(mén)課程,所以我希望我所撰寫(xiě)的這篇回顧也能對(duì)其他人有所幫助。

實(shí)話實(shí)說(shuō)在學(xué)習(xí)了這五堂課之后我感到獲益良多。課程內(nèi)容結(jié)構(gòu)合理,并且對(duì)于那些只有一點(diǎn)點(diǎn)矩陣代數(shù)知識(shí)的人而言也非常友好。然后你必須具備有 Python 編碼的經(jīng)驗(yàn),哪怕只有一點(diǎn)點(diǎn)。課程里大多數(shù)的編程任務(wù)都設(shè)置得恰到好處。除了它們富有啟發(fā)性的特性之外,嘗試去解決這些問(wèn)題的過(guò)程也是相當(dāng)令人享受。最后,在我看來(lái),學(xué)習(xí)這門(mén)專(zhuān)業(yè)化課程是你開(kāi)始深入探索深度學(xué)習(xí)各個(gè)領(lǐng)域分支的一條絕佳途徑。并且在學(xué)習(xí)完該課程之后,你將能夠找到自己想在深度學(xué)習(xí)中繼續(xù)深入研究的方向。

背景

首先我必須承認(rèn),在學(xué)習(xí)這門(mén)課程之前,我對(duì)神經(jīng)網(wǎng)絡(luò)一直保持著懷疑的態(tài)度。因?yàn)槲揖哂袀鹘y(tǒng)機(jī)器學(xué)習(xí)的知識(shí)背景,所以我一度不相信像神經(jīng)網(wǎng)絡(luò)這種將一些函數(shù)(神經(jīng)元)組合在一起的黑盒模型(無(wú)法進(jìn)行單獨(dú)的訓(xùn)練與評(píng)估),能夠超過(guò)一個(gè)經(jīng)過(guò)精心調(diào)整和認(rèn)真評(píng)估驗(yàn)證過(guò)的模型。而另一方面,深度學(xué)習(xí)與人工智能的火爆現(xiàn)象也讓我對(duì)此更加疑慮重重。

盡管如此,我卻認(rèn)真對(duì)待和考慮著每一位和我提起深度學(xué)習(xí)的朋友的建議,尤其是 Shoaib Burq 在蘇黎世舉行的 Apache Spark 聚會(huì)上的一次演講,那次演講是我一個(gè)很重要的轉(zhuǎn)折點(diǎn)。那之后,也就是去年,我決定要對(duì)深度學(xué)習(xí)進(jìn)行一探究竟以解心中疑惑。首先,我開(kāi)始觀看一些視頻、閱讀博客以及跟著一些教程學(xué)習(xí)。不幸的是,這些嘗試證明了我之前的假設(shè)——即深度學(xué)習(xí)背后的數(shù)學(xué)機(jī)理對(duì)我而言過(guò)于高深。盡管我深深地喜歡應(yīng)用數(shù)學(xué)進(jìn)行實(shí)踐,但是當(dāng)涉及到求導(dǎo)推理和抽象理論的時(shí)候,我卻是一個(gè)十足的門(mén)外漢。

當(dāng)我第一次聽(tīng)說(shuō)了 deeplearning.ai 專(zhuān)業(yè)化課程時(shí)我非常地興奮。因?yàn)樵谥暗钠渌n程學(xué)習(xí)中,我已經(jīng)意識(shí)到了 Coursera 平臺(tái)的學(xué)習(xí)方式非常適合我。然后從 Andrew Ng 的第一個(gè)大型開(kāi)放式網(wǎng)絡(luò)課程(Massive Open Online Course, MOOC)的視頻中,我了解到他是一位機(jī)器學(xué)習(xí)領(lǐng)域的好講師。但是由于當(dāng)時(shí)課程任務(wù)采用的編程語(yǔ)言是 Octave,所以那時(shí)我并沒(méi)能完成那個(gè)課程上的任務(wù)。所以在了解到該課程任務(wù)現(xiàn)在采用了 Python 實(shí)現(xiàn)編程(這是我的主要編程語(yǔ)言)之后,我最終確信,該系列課程將能帶領(lǐng)我系統(tǒng)化學(xué)習(xí)深度學(xué)習(xí)。

但首先,我沒(méi)有足夠的時(shí)間來(lái)完成課程作業(yè)。

當(dāng)我在去年年中遭遇(盡管不嚴(yán)重但是卻很麻煩)了身體健康問(wèn)題之后,情況發(fā)生了轉(zhuǎn)變。當(dāng)我感覺(jué)身體好一些之后,我最終下定決心參加第一門(mén)課程。通常情況下,我只在一門(mén)特定的課程中參加一個(gè)我想學(xué)習(xí)的特定主題,觀看視頻并快速完成作業(yè)。但是這一次,我決定要堅(jiān)持從頭學(xué)到尾,并且循序漸進(jìn)。我期望關(guān)于認(rèn)知挑戰(zhàn)主題的工作可以幫助我盡快康復(fù)。然后完成那些編程任務(wù)也是我回歸編程和日常工作的一個(gè)好機(jī)會(huì)。事實(shí)上,在剛開(kāi)始的頭幾周里出于身體健康原因,我被限制了只能在顯示器面前呆上非常短的時(shí)間。所以我不得不把作業(yè)打印出來(lái),在紙上將它們解決了,之后再上網(wǎng)將這些答案錄入提交。此外,在剛開(kāi)始時(shí)一個(gè)令人意想不到的積極的副作用發(fā)生了。在前三個(gè)課程中有一些可選的視頻,在這些視頻里 Andrew 分別采訪了那些深度學(xué)習(xí)領(lǐng)域的英雄(Hinton、Bengio 和 Karpathy 等)。這些視頻不僅內(nèi)容豐富,而且對(duì)我來(lái)說(shuō)非常具有激勵(lì)性,尤其是 Ian Goodfellow 的視頻。

干貨

在專(zhuān)業(yè)層面上,當(dāng)你對(duì)這個(gè)主題相當(dāng)陌生時(shí),你可以通過(guò)學(xué)習(xí) deeplearning.ai 而獲取到很多的知識(shí)。首先也是最重要的是,你學(xué)到了關(guān)于神經(jīng)網(wǎng)絡(luò)的基本概念,在簡(jiǎn)單的序列模型中一個(gè)前向傳播是如何進(jìn)行的,以及什么是反向傳播等等。我曾經(jīng)多次看到過(guò)并且聽(tīng)說(shuō)過(guò)神經(jīng)網(wǎng)絡(luò)的這些基本構(gòu)建塊。但是 Andrew Ng 所給出的定義和介紹卻是最清晰和最系統(tǒng)的。所以我認(rèn)為這套課程是一個(gè)學(xué)習(xí)這些基礎(chǔ)的非常有效的途徑,并且比我之前學(xué)習(xí)過(guò)的那些教程、博客以及演講都來(lái)的有價(jià)值。

作為一個(gè)側(cè)面說(shuō)明,第一堂課就立即證明了我之前的假設(shè)是錯(cuò)誤的——即深度學(xué)習(xí)所涉及的數(shù)學(xué)知識(shí)對(duì)我而言過(guò)于高深。事實(shí)上,課程中大多數(shù)的概念都在我上學(xué)期間或者學(xué)習(xí)期間有接觸過(guò)——而我并沒(méi)有碩士文憑,所以不要讓那些公式中看起來(lái)很精致的希臘字母嚇到了。你所要具備的基礎(chǔ)知識(shí)只是知道一點(diǎn)點(diǎn)如何計(jì)算矩陣代數(shù),懂得通過(guò)偏導(dǎo)來(lái)計(jì)算梯度,懂得基本的線性回歸模型以及梯度下降法,而剩下的其它知識(shí) Andrew 都會(huì)教你的。

正如你在其它許多技術(shù)資料中接觸到一樣,你將在第一堂介紹課中學(xué)習(xí)到深度學(xué)習(xí)中的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在生物模型中并沒(méi)有對(duì)應(yīng)物。神經(jīng)元中的信號(hào)處理機(jī)制與深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)的功能(先是線性計(jì)算然后通過(guò)激活函數(shù)引入非線性)非常不一樣。

對(duì)新手們而言非常有用的一點(diǎn)是去學(xué)習(xí)深度學(xué)習(xí)項(xiàng)目的不同方法。比如是采用預(yù)訓(xùn)練模型進(jìn)行遷移學(xué)習(xí)還是采用一種端到端的學(xué)習(xí)方法。此外數(shù)據(jù)增強(qiáng)的概念至少在方法論層面得到了解決。

在更高級(jí)的課程中,你將接觸到圖像識(shí)別(課程4)和序列模型(課程5)。這兩節(jié)課介紹了卷積神經(jīng)網(wǎng)絡(luò)(CNN)和遞歸神經(jīng)網(wǎng)絡(luò)(RNN)最常見(jiàn)的變體。而我認(rèn)為這是專(zhuān)業(yè)化的一個(gè)主要優(yōu)勢(shì),你可以學(xué)習(xí)到各種最先進(jìn)的模型和方法。盡管它可能無(wú)法讓你成為深度學(xué)習(xí)的專(zhuān)家,但是你將認(rèn)識(shí)到你可以進(jìn)一步專(zhuān)注于該領(lǐng)域哪一個(gè)分支。

另外我發(fā)現(xiàn)對(duì)加深課程理解非常有用的是,通過(guò) Fran?ois Chollet 編寫(xiě)的書(shū)籍《深度學(xué)習(xí)與 Python》 來(lái)補(bǔ)充課程作業(yè)部分缺失的知識(shí)。這本書(shū)中缺失的技術(shù)方法論基礎(chǔ)在課程講座中得到了很好的解釋。另一方面,那些在本課程中提到但是卻沒(méi)有在作業(yè)中得到廣泛實(shí)施的深度學(xué)習(xí)項(xiàng)目,這些內(nèi)容在本書(shū)中也有更詳細(xì)的介紹。特別是數(shù)據(jù)預(yù)處理部分在本課程的編程任務(wù)中明顯缺失。你可以在第二個(gè)以及第四個(gè) MOOC 中獲取關(guān)于如何使用深度學(xué)習(xí)框架(Tensorflow 和 Keras)的教程,但是顯而易見(jiàn)的是,這本由 Keras 創(chuàng)建者編寫(xiě)的書(shū)將教你如何更深入地實(shí)現(xiàn)深度學(xué)習(xí)模型。

接下來(lái)我將逐一介紹你可以期待從這五門(mén)課程中學(xué)習(xí)到什么,以及一些與課程作業(yè)有關(guān)的個(gè)人經(jīng)驗(yàn)。最后,我還將總結(jié)一下一些個(gè)人想法。

神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)

該課程將向你介紹神經(jīng)網(wǎng)絡(luò)的基本構(gòu)建模塊。你將學(xué)習(xí)到 Logistic 回歸、損失函數(shù)、激活函數(shù)以及梯度下降法(隨機(jī)梯度下降法和小批量梯度下降法)是如何工作的。同時(shí)還將快速介紹如何使用 Python 的 Numpy 庫(kù)進(jìn)行矩陣代數(shù)計(jì)算。

學(xué)不學(xué)吳恩達(dá) deeplearning.ai 課程,看完這篇你就知道了

對(duì)一張貓的圖像進(jìn)行分類(lèi)預(yù)測(cè)

該課程的主要任務(wù)是進(jìn)行概覽式簡(jiǎn)介。Andrew Ng 是一位出色的講師,即便是那些數(shù)學(xué)基礎(chǔ)較差的同學(xué)應(yīng)該也能很好地理解上課所講的內(nèi)容。

在這次作業(yè)中,你將首先采用單個(gè)感知機(jī)實(shí)現(xiàn)一個(gè)二元分類(lèi)任務(wù),然后升級(jí)為一個(gè)多層感知機(jī)來(lái)實(shí)現(xiàn)相同的任務(wù)目標(biāo),最后一項(xiàng)作業(yè)則是通過(guò) Numpy 編碼實(shí)現(xiàn)一個(gè)深度神經(jīng)網(wǎng)絡(luò)。尤其是這兩個(gè)圖像分類(lèi)任務(wù)在某種意義上具有啟發(fā)性和回報(bào)性,因?yàn)槟銓⒆罱K實(shí)現(xiàn)一個(gè)喵咪分類(lèi)器。正如你在上圖看到的那樣,它能夠判斷一張圖像上是否有貓存在。

高階深度神經(jīng)網(wǎng)絡(luò):超參數(shù)調(diào)優(yōu)、正則化以及優(yōu)化方法

正如標(biāo)題所示,在本課程中,你將學(xué)習(xí)如何微調(diào)深度神經(jīng)網(wǎng)絡(luò)。這幾節(jié)課程解決了最常見(jiàn)的問(wèn)題,比如過(guò)擬合和梯度消失/爆炸。你將學(xué)習(xí)到如何找到合適的權(quán)重初始化、使用 dropouts 技術(shù)、正則化以及歸一化操作。當(dāng)然,還將學(xué)習(xí)到不同的優(yōu)化算法變體都是如何進(jìn)行工作的,以及該為自己的問(wèn)題選擇哪一種優(yōu)化算法最為恰當(dāng)。

對(duì)我而言,本課程最有用的一個(gè)知識(shí)是采用隨機(jī)值來(lái)調(diào)整超參數(shù),而不是通過(guò)一種更加結(jié)構(gòu)化的方法。事實(shí)證明,在定義的空間和正確的尺度上選取隨機(jī)值比使用網(wǎng)格搜索更加有效,如果你從事過(guò)傳統(tǒng)的機(jī)器學(xué)習(xí),你應(yīng)該對(duì)網(wǎng)格搜索非常熟悉。

這次課程的任務(wù)則有點(diǎn)枯燥,我猜這是因?yàn)樗麄冇斜仨毺幚淼膬?nèi)容。但是每一個(gè)作業(yè)都大有裨益——特別是關(guān)于優(yōu)化方法的作業(yè)。作為獎(jiǎng)勵(lì),你將在課程結(jié)束時(shí)獲得有關(guān)如何使用 Tensorflow 的教程,這對(duì)后續(xù)課程即將進(jìn)行的作業(yè)而言非常有用。

構(gòu)建機(jī)器學(xué)習(xí)項(xiàng)目

這次課程絕對(duì)是一只黑天鵝。由于它被設(shè)計(jì)成為期兩周的課程學(xué)習(xí),我期望在前兩個(gè)入門(mén)課程和之后的關(guān)于 CNN 和 RNN 的高級(jí)課程之間有一個(gè)快速的填充。此外,我本來(lái)認(rèn)為我非常習(xí)慣于構(gòu)建機(jī)器學(xué)習(xí)項(xiàng)目。但是事實(shí)證明,這對(duì)我來(lái)說(shuō)是最有價(jià)值的課程。

在本課程中,你將學(xué)習(xí)開(kāi)發(fā)深度學(xué)習(xí)模型的優(yōu)良實(shí)踐方法。對(duì)于大多數(shù)機(jī)器學(xué)習(xí)從業(yè)者而言,應(yīng)該會(huì)對(duì)將數(shù)據(jù)集分解成訓(xùn)練、校驗(yàn)和測(cè)試三分部分這種操作感到熟悉。在開(kāi)始項(xiàng)目之前,我們必須確認(rèn)我們所要優(yōu)化的指標(biāo)。而且,你應(yīng)該針對(duì)人類(lèi)層次誤差(Human-Level-Error, HLE)分別量化模型執(zhí)行域的貝葉斯最優(yōu)誤差(Bayes-Optimal-Error, BOE)。這是一個(gè)重要的步驟,而我之前卻一直沒(méi)有意識(shí)到(通常情況下,我將性能與基準(zhǔn)模型進(jìn)行了比較——這一點(diǎn)同樣重要)。當(dāng)你必須評(píng)估模型性能時(shí),你當(dāng)然會(huì)將校驗(yàn)誤差與 BOE(或 HLE)和訓(xùn)練誤差進(jìn)行比較。因此,你可以將可避免偏差(BOE 與訓(xùn)練誤差)和模型方差(訓(xùn)練誤差與校驗(yàn)誤差)進(jìn)行比較。而這兩者哪一個(gè)更大,將決定了你應(yīng)該采取什么樣的策略來(lái)進(jìn)一步提高性能。例如,如果方差存在問(wèn)題,你可以嘗試獲取更多的數(shù)據(jù)、引入正則項(xiàng)或者嘗試一種全新的不同的方法(例如,替代架構(gòu)或不同的超參數(shù)搜索方法)。

你還可以學(xué)習(xí)到創(chuàng)建項(xiàng)目的不同策略以及遷移學(xué)習(xí)與端到端學(xué)習(xí)的詳細(xì)內(nèi)容。

卷積神經(jīng)網(wǎng)絡(luò)

由于我對(duì)計(jì)算機(jī)視覺(jué)不太感興趣,至少在我參加這次課程之前,我對(duì)計(jì)算機(jī)視覺(jué)這塊內(nèi)容的期待并沒(méi)有太高。但是事實(shí)證明,這成為了我整個(gè)系列課程中最具有教育意義的一門(mén)課程。

在本課程中,你將主要學(xué)習(xí) CNN 以及它是如何被應(yīng)用于計(jì)算機(jī)視覺(jué)任務(wù)的。從課程視頻中,你可以了解 CNN 的構(gòu)建模塊以及它們是如何能夠變換張量的。有些視頻也專(zhuān)門(mén)介紹了殘差網(wǎng)絡(luò)(Residual Network, ResNet)和 Inception 架構(gòu)。

學(xué)不學(xué)吳恩達(dá) deeplearning.ai 課程,看完這篇你就知道了

基于 YOLO 的動(dòng)物檢測(cè)

我另外找到了一些有關(guān) YOLO 算法的精彩視頻。YOLO 的基本功能在課程中被非常好地可視化了出來(lái),這些都讓我耳目一新,也讓我意識(shí)到了物體檢測(cè)原來(lái)也可以是一件令人愉快的工作。但是光建立一個(gè)性能優(yōu)秀而復(fù)雜的模型有時(shí)候還不夠,因?yàn)楹茱@然,預(yù)測(cè)的速度也是一項(xiàng)非常重要的指標(biāo)。

這應(yīng)該是該系列課程的五個(gè)任務(wù)中最具有教育意義的一個(gè),在這里你需要實(shí)現(xiàn)一個(gè)低層次抽象 CNN 架構(gòu)。然后選做部分的編碼實(shí)現(xiàn)反向傳播,加深了我對(duì)這種反向?qū)W習(xí)過(guò)程的理解。

人臉識(shí)別中有兩個(gè)任務(wù)。在這個(gè)主題下的課程和作業(yè),給了我們一次很好的機(jī)會(huì)來(lái)認(rèn)識(shí) deeplearning.ai的團(tuán)隊(duì)成員們——至少能見(jiàn)識(shí)到他們的照片。因?yàn)樗麄兊恼掌挥脕?lái)作為驗(yàn)證用的圖像。

學(xué)不學(xué)吳恩達(dá) deeplearning.ai 課程,看完這篇你就知道了

神經(jīng)風(fēng)格轉(zhuǎn)換

這里還有一個(gè)與藝術(shù)有關(guān)的任務(wù),這就是神經(jīng)風(fēng)格轉(zhuǎn)換(Neural Style Transfer)。基本上,你必須通過(guò) Tensorflow 實(shí)現(xiàn) Gatys 等人在 2015 年的論文中所提出的架構(gòu)。除了課程的要求之外,我還用這個(gè)模型自?shī)首詷?lè)了一會(huì),并且得到了一些既有趣又恐怖的結(jié)果。當(dāng)你瀏覽中間記錄的結(jié)果時(shí),你可以看到模型是如何學(xué)習(xí)并在每次迭代中將樣式應(yīng)用到輸入圖像之上的。曾經(jīng)有那么一瞬間我覺(jué)得就像科學(xué)怪人一般,因?yàn)槲业哪P蛷脑磮D像的眼睛區(qū)域進(jìn)行了學(xué)習(xí),并將該特征應(yīng)用到了輸入圖像的人臉中,所以它一不小心就成了 DeepFake。

序列模型

這是本系列最后一堂課,也是我認(rèn)為最難的一部分。這里你將學(xué)到 RNN、門(mén)控重復(fù)單元(Gated Recurrent Unit, GRU)和長(zhǎng)短時(shí)記憶(Long Short-Term Memory, LSTM)的基本概念,以及它們的雙向?qū)崿F(xiàn)。雖然對(duì)我而言,實(shí)現(xiàn)專(zhuān)業(yè)化的理解和使用這些模型是我的最終目標(biāo),但是我依然覺(jué)得這些內(nèi)容難以掌握。這可能是因?yàn)槔镞厪?fù)雜的概念,比如時(shí)間反向傳播(Back propagation through time)、詞嵌入向量(Word embeddings)或者束搜索(Beam search)。而且我認(rèn)為,這些較難的主題應(yīng)該劃分成四周時(shí)間進(jìn)行學(xué)習(xí)會(huì)更好,而不是現(xiàn)在的三周。

另一方面,本次課程的測(cè)驗(yàn)和編程作業(yè)都顯得非常簡(jiǎn)單。你將學(xué)習(xí)如何構(gòu)建 RNN,該 RNN 能夠從字符序列中學(xué)習(xí)以生成新的相似內(nèi)容。例如,你必須編寫(xiě)一個(gè)模型來(lái)為恐龍起名字。LSTMs 在各種各樣的任務(wù)中都能發(fā)揮作用。你構(gòu)建一個(gè)能以莎士比亞風(fēng)格寫(xiě)詩(shī)的模型,只要給定一個(gè)序列作為開(kāi)始。然后在另外一個(gè)項(xiàng)目中,你可以再次變得富有藝術(shù)性。你必須構(gòu)建一個(gè) LSTM,使它學(xué)習(xí)爵士樂(lè)音樂(lè)庫(kù)中的音樂(lè)模式,之后再使用這個(gè)模型來(lái)生成一個(gè)新的爵士即興創(chuàng)作。我的結(jié)果聽(tīng)起來(lái)是這樣的,雖然差強(qiáng)人意,但是它聽(tīng)起來(lái)至少還是有點(diǎn)爵士的感覺(jué)。然后接下來(lái)這個(gè)又是需要 LSTM,這次你需要把 LSTM 與一個(gè)嵌入層進(jìn)行結(jié)合,這個(gè)模型可以檢測(cè)輸入序列的語(yǔ)義情緒,并在句尾添加最合適的表情符號(hào)。

學(xué)不學(xué)吳恩達(dá) deeplearning.ai 課程,看完這篇你就知道了

通過(guò)詞嵌入和 LSTM 實(shí)現(xiàn)自動(dòng)添加表情

很棒的是,你在第二周學(xué)習(xí)的不僅是關(guān)于詞嵌入,還有詞嵌入中所包含的社會(huì)偏見(jiàn)問(wèn)題。而最重要的是,你將學(xué)習(xí)如何以三步走的方式來(lái)解決這個(gè)問(wèn)題:識(shí)別(Identify)——抵消(Neutralize)——均衡(Equalize)。最后,一個(gè)非常有教育意義的任務(wù)是最后的一個(gè)編程作業(yè)。你可以構(gòu)建一個(gè)觸發(fā)器單詞檢測(cè)器(Trigger Word Detector),正如你喚醒 Amazon Echo 和 Google Home 設(shè)備那樣。我鄭重承諾,我的模型比 Google 智能助理更了解我,并且它還有一個(gè)更加愉快的喚醒詞匯。

最后的碎碎念

最后,我想說(shuō)的是,如果你對(duì)深度學(xué)習(xí)相對(duì)陌生,你將可以從這個(gè)專(zhuān)業(yè)化課程中學(xué)到很多知識(shí)。如果你已經(jīng)對(duì)神經(jīng)網(wǎng)絡(luò)有了一定的了解,那么可以跳過(guò)前兩門(mén)課程。如果你對(duì)圖像識(shí)別和序列模型也非常熟悉了,那么建議你僅參加“構(gòu)建機(jī)器學(xué)習(xí)項(xiàng)目”這個(gè)課程。

另一方面,要清楚地知道自己屬于哪一種學(xué)習(xí)類(lèi)型。如果你是一個(gè)嚴(yán)格的動(dòng)手實(shí)踐派,這種專(zhuān)業(yè)化課程可能并不適合你,你應(yīng)該去尋找其它更合適的課程。據(jù)說(shuō),fast.ai 提供了更豐富的動(dòng)手操作體驗(yàn)。另外,如果你只對(duì)理論化的東西感興趣,而對(duì)實(shí)際動(dòng)手實(shí)現(xiàn)不感興趣,那么你可能也不會(huì)對(duì)該課程感到滿意——那么我建議你選修當(dāng)?shù)卮髮W(xué)所開(kāi)設(shè)的一些相關(guān)課程。也許你只是對(duì)深度學(xué)習(xí)的某一特定領(lǐng)域感興趣,那么對(duì)你來(lái)說(shuō)也可能存在其它更合適的課程。比如說(shuō),如果你只想了解自動(dòng)駕駛,那么在 Udacity 上注冊(cè)不提供學(xué)位證書(shū)的「自動(dòng)駕駛汽車(chē)」課程可能來(lái)的更有效率。盡管在 deeplearning.ai 的第三課中也介紹了自動(dòng)駕駛,但是這些內(nèi)容過(guò)于皮毛,而且缺乏實(shí)踐指導(dǎo)。但是,如果你更重視全面的介紹,并且希望將它與深度學(xué)習(xí)的各個(gè)領(lǐng)域的實(shí)踐經(jīng)驗(yàn)結(jié)合起來(lái),那么我肯定會(huì)推薦 deeplearning.ai。

學(xué)習(xí)這個(gè)專(zhuān)業(yè)化課程可能不僅僅只是你進(jìn)入深度學(xué)習(xí)領(lǐng)域的第一步。我會(huì)說(shuō),其中的每一門(mén)課程都引領(lǐng)著你朝著正確的方向邁出了一步,所以你最終總共邁出了五步。盡管如此,我也很清楚,那就是這樣也還不足以幫助你在人工智能領(lǐng)域追求更長(zhǎng)遠(yuǎn)的職業(yè)發(fā)展。我認(rèn)為該系列課程幫你構(gòu)建起了對(duì)該領(lǐng)域的一個(gè)基本理解。但是進(jìn)一步說(shuō),你必須持之以恒進(jìn)行實(shí)踐,最后還可以考慮閱讀更多有關(guān)于深度學(xué)習(xí)變體方法論的背景知識(shí)(例如在課程中提到的更高級(jí)的論文)。但是通過(guò)這門(mén)課程的學(xué)習(xí),你可以開(kāi)始以系統(tǒng)化的方式進(jìn)入該領(lǐng)域——這是非常有價(jià)值的,尤其是當(dāng)前深度學(xué)習(xí)領(lǐng)域存在著如此紛繁眾多的分支。

如果你想獲得關(guān)于 deeplearning.ai 專(zhuān)業(yè)化課程的更多資訊,并且還想知道其他人的觀點(diǎn)(與我相似):我推薦你去觀看 Christoph Bonitz 關(guān)于他參加該系列 MOOC 經(jīng)歷的演講。你可以在這里觀看錄像視頻。

最重要的是,我絕不會(huì)后悔把時(shí)間花在 Coursera 的專(zhuān)業(yè)課上。因?yàn)槲业拇蟛糠制诖家呀?jīng)得到了滿足,并且我在專(zhuān)業(yè)化層面上學(xué)習(xí)到了非常多知識(shí)。完成所有的課程包括選修部分,這也是一個(gè)不錯(cuò)的選擇。我非常感謝 Andrew Ng 鼓勵(lì)我們?nèi)ラ喿x論文,以便于能在特定主題上深入探索。因此,你將從 MOOC 的課堂中獲得一份精選的閱讀列表,我認(rèn)為這也是非常有用的。

最后,我對(duì)于這門(mén)專(zhuān)業(yè)化課程給出的關(guān)鍵要點(diǎn)是:現(xiàn)在我完全相信深度學(xué)習(xí)方法和它的強(qiáng)大功能。它的主要優(yōu)勢(shì)在于對(duì)大量數(shù)據(jù)的擴(kuò)展性以及對(duì)相似任務(wù)泛化能力,而這些可能是傳統(tǒng)機(jī)器學(xué)習(xí)模型不具備的能力。所以,我想感謝 Andrew Ng,感謝整個(gè) deeplearning.ai 團(tuán)隊(duì),感謝 Coursera 提供了如此有價(jià)值的內(nèi)容。而且我絕對(duì)期待,不久的將來(lái)這門(mén)專(zhuān)業(yè)課可能會(huì)迎來(lái)第六門(mén)課程——關(guān)于深度強(qiáng)化學(xué)習(xí)的話題!

聲明:作者并不隸屬于 deeplearning.ai、Coursera 或其它 MOOC 供應(yīng)商。這是作者在 2017-11 至 2018-02 期間撰寫(xiě)的關(guān)于自己參加這次課程的個(gè)人經(jīng)歷體驗(yàn)。此外,本博客提到課程內(nèi)容不具有普遍的參考意義,因?yàn)楣俜降恼n程設(shè)置在將來(lái)可能發(fā)生變化。

Via Review of Deeplearning.ai Courses,雷鋒網(wǎng) AI 科技評(píng)論編譯

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

學(xué)不學(xué)吳恩達(dá) deeplearning.ai 課程,看完這篇你就知道了

分享:
相關(guān)文章

知情人士

我也是個(gè)旅途的浪人
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)