丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給AI研習(xí)社-譯站
發(fā)送

0

神經(jīng)網(wǎng)絡(luò)開始放飛自我!都是因為架構(gòu)搜索新算法 | 2分鐘讀論文

本文作者: AI研習(xí)社-譯站 2017-12-27 14:39
導(dǎo)語:雷鋒字幕組出品系列短視頻《 2 分鐘論文 》,帶大家用碎片時間閱覽前沿技術(shù),了解 AI 領(lǐng)域的最新研究成果。

雷鋒網(wǎng):雷鋒字幕組出品系列短視頻《 2 分鐘論文 》,帶大家用碎片時間閱覽前沿技術(shù),了解 AI 領(lǐng)域的最新研究成果。

雷鋒網(wǎng)本期論文:結(jié)合分層表示的高級架構(gòu)搜索

Hierarchical Representations For Efficient Architecture Search

? 觀看論文解讀

說到學(xué)習(xí)算法,為什么我們不讓神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)其自身的架構(gòu)呢?

終于有人提出了。這個新算法正是關(guān)于架構(gòu)搜索的。

神經(jīng)網(wǎng)絡(luò)開始放飛自我!都是因為架構(gòu)搜索新算法 | 2分鐘讀論文

到目前為止,這并不是第一個可以解決這個問題的辦法。但它無疑是藝術(shù)層面上的一個顯著的進步。它代表了作為有機體的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),可以通過遺傳算法編程使其進化。

神經(jīng)網(wǎng)絡(luò)開始放飛自我!都是因為架構(gòu)搜索新算法 | 2分鐘讀論文

兩分鐘論文節(jié)目之前有提到過,神經(jīng)網(wǎng)絡(luò)技術(shù)發(fā)展十分迅速,在十年前就已經(jīng)解決了那些人們認(rèn)為完全不可能解決的問題。當(dāng)我們想利用它來解決一些問題的時候,我們需要選擇正確的神經(jīng)網(wǎng)絡(luò)。問題是,我們要如何去建立正確的神經(jīng)網(wǎng)絡(luò)架構(gòu)呢?

針對典型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),我們至少要知道在這個網(wǎng)絡(luò)中層的種類和數(shù)量,和每一層中使用的神經(jīng)元的數(shù)量。更大一些的神經(jīng)網(wǎng)絡(luò)可以通過學(xué)習(xí)解決方案來處理更加復(fù)雜一些的問題。這樣一來,事情就變得很簡單,只要給出盡可能大的神經(jīng)網(wǎng)絡(luò),我們就能解決問題,并且可以期望得到最好的結(jié)果。但是,如果你真的認(rèn)為答案僅是如此,那太果斷了。

神經(jīng)網(wǎng)絡(luò)開始放飛自我!都是因為架構(gòu)搜索新算法 | 2分鐘讀論文

建立更大的神經(jīng)網(wǎng)絡(luò)是要付出代價的。它們要花更長的時間訓(xùn)練,更糟的是,如果我們有一個過于大的神經(jīng)網(wǎng)絡(luò),就會遇到過擬合的問題。過擬合現(xiàn)象是指學(xué)習(xí)算法從本質(zhì)上來說是在記憶訓(xùn)練數(shù)據(jù),而實際上并沒有進行學(xué)習(xí)。其結(jié)果是,它的知識并不適用于它沒見到過的數(shù)據(jù)。

想象一下,一名學(xué)生有著非凡的才能。他能夠記下教科書里的所有內(nèi)容,如果考試內(nèi)容跟書本上一樣,這名學(xué)生能夠做的非常好,但是,即使考試內(nèi)容有最細微的偏差,這名學(xué)生也將會做的非常糟糕。人們喜歡稱之為死記硬背,但是這種方式跟任何一種學(xué)習(xí)方法都無法相比。一個較小的神經(jīng)網(wǎng)絡(luò)就像一名知識量較少的學(xué)生。他們更傾向于選擇一種方式來完成他們的家庭作業(yè),這種方式會完成得更好。這就是過擬合現(xiàn)象。它是眾多現(xiàn)代學(xué)習(xí)算法的弊端。

使用L1、L2正則化或者dropout方法在某種程度上可以防止過擬合現(xiàn)象。這些方法通常有所幫助,但是沒有一種方法是非常高效的。因此,雖然算法本身是學(xué)習(xí)算法,但是出于某種原因,我們必須人為設(shè)計其網(wǎng)絡(luò)結(jié)構(gòu),正如我們討論的一些結(jié)構(gòu),實際上他們明顯優(yōu)于其他的結(jié)構(gòu)。我們要完成長期的反復(fù)測試以求解決結(jié)構(gòu)中的錯誤,從而人為地找到最好的結(jié)構(gòu)。

神經(jīng)網(wǎng)絡(luò)開始放飛自我!都是因為架構(gòu)搜索新算法 | 2分鐘讀論文

在這個圖表中,水平的X軸表示進化的步驟數(shù)目,垂直的Y軸表示隨著時間的推移進化后架構(gòu)的性能。最后,在花了一天半時間完成了幾千個進化步驟之后,此算法找到的最好的網(wǎng)絡(luò)架構(gòu)只是稍稍遜色于適合許多經(jīng)典數(shù)據(jù)集的現(xiàn)有的最好的神經(jīng)網(wǎng)絡(luò)。

請仔細閱讀本篇文章,并與最先進的神經(jīng)網(wǎng)絡(luò)和其他的架構(gòu)搜索方法進行比較。這篇文章里有很多容易讀懂的結(jié)果。需要注意的是,這是初步工作,在過程中仍需要使用數(shù)百顯卡。假如你知道神經(jīng)網(wǎng)絡(luò)是如何應(yīng)用于AlphaGo的,那么它的計算成本會在一年多的時間里減少10倍。

關(guān)注雷鋒網(wǎng)的學(xué)霸們請閱讀論文獲得更多細節(jié):https://arxiv.org/pdf/1711.00436.pdf

神經(jīng)網(wǎng)絡(luò)開始放飛自我!都是因為架構(gòu)搜索新算法 | 2分鐘讀論文

神經(jīng)網(wǎng)絡(luò)開始放飛自我!都是因為架構(gòu)搜索新算法 | 2分鐘讀論文來源 / Two Minute Papers

翻譯 / 嚴(yán)謹(jǐn)文

校對 / 凡江

整理 / 雷鋒字幕組


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

神經(jīng)網(wǎng)絡(luò)開始放飛自我!都是因為架構(gòu)搜索新算法 | 2分鐘讀論文

分享:

知情人士

AI研習(xí)社(yanxishe.com)譯站頻道,傳播前沿人工智能知識,讓語言不再成為學(xué)習(xí)知識的門檻。(原雷鋒字幕組)
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說