丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能開發(fā)者 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

大白話解釋模型產(chǎn)生過擬合的原因!

本文作者: AI研習(xí)社 編輯:賈智龍 2017-05-22 17:20
導(dǎo)語(yǔ):究竟是什么原因?qū)е碌倪^擬合?了解了原因才好避免。

今天郭江師兄在實(shí)驗(yàn)室講解了全體機(jī)器學(xué)習(xí)會(huì)第一章的知識(shí),大家討論了一下過擬合的知識(shí),這里我根據(jù)自己的理解,整理了一下原因,力求同最通俗的語(yǔ)言來描述,可能不是太嚴(yán)謹(jǐn),但是總體思想能保證正確!

一、過擬合的概念?

首先我們來解釋一下過擬合的概念?

過擬合就是訓(xùn)練出來的模型在訓(xùn)練集上表現(xiàn)很好,但是在測(cè)試集上表現(xiàn)較差的一種現(xiàn)象!下圖給出例子:

大白話解釋模型產(chǎn)生過擬合的原因!

我們將上圖第三個(gè)模型解釋為出現(xiàn)了過擬合現(xiàn)象,過度的擬合了訓(xùn)練數(shù)據(jù),而沒有考慮到泛化能力。在訓(xùn)練集上的準(zhǔn)確率和在開發(fā)集上的準(zhǔn)確率畫在一個(gè)圖上如下

大白話解釋模型產(chǎn)生過擬合的原因!

從圖中我們能夠看出,模型在訓(xùn)練集上表現(xiàn)很好,但是在交叉驗(yàn)證集上表現(xiàn)先好后差。這也正是過擬合的特征!

二、模型出現(xiàn)過擬合現(xiàn)象的原因

發(fā)生過擬合的主要原因可以有以下三點(diǎn):

(1)數(shù)據(jù)有噪聲

(2)訓(xùn)練數(shù)據(jù)不足,有限的訓(xùn)練數(shù)據(jù)

(3)訓(xùn)練模型過度導(dǎo)致模型非常復(fù)雜

下面我將分別解釋這三種情況(這里按自己的理解解釋,歡迎大家交流):

(1)數(shù)據(jù)有噪聲

為什么數(shù)據(jù)有噪聲,就可能導(dǎo)致模型出現(xiàn)過擬合現(xiàn)象呢?

所有的機(jī)器學(xué)習(xí)過程都是一個(gè) search 假設(shè)空間的過程!我們是在模型參數(shù)空間搜索一組參數(shù),使得我們的損失函數(shù)最小,也就是不斷的接近我們的真實(shí)假設(shè)模型,而真實(shí)模型只有知道了所有的數(shù)據(jù)分布,才能得到。

往往我們的模型是在訓(xùn)練數(shù)據(jù)有限的情況下,找出使損失函數(shù)最小的最優(yōu)模型,然后將該模型泛化于所有數(shù)據(jù)的其它部分。這是機(jī)器學(xué)習(xí)的本質(zhì)!

那好,假設(shè)我們的總體數(shù)據(jù)如下圖所示:

大白話解釋模型產(chǎn)生過擬合的原因!

(我這里就假設(shè)總體數(shù)據(jù)分布滿足一個(gè)線性模型 y = kx+b, 現(xiàn)實(shí)中肯定不會(huì)這么簡(jiǎn)單,數(shù)據(jù)量也不會(huì)這么少,至少也是多少億級(jí)別,但是不影響解釋。反正總體數(shù)據(jù)滿足模型 y)

此時(shí)我們得到的部分?jǐn)?shù)據(jù),還有噪聲的話,如圖所示:

大白話解釋模型產(chǎn)生過擬合的原因!

(紅色數(shù)據(jù)點(diǎn)為噪聲)

那么由上面訓(xùn)練數(shù)據(jù)點(diǎn)訓(xùn)練出來的模型肯定不是線性模型(總體數(shù)據(jù)分布下滿足的標(biāo)準(zhǔn)模型),比如訓(xùn)練出來的模型如下:

大白話解釋模型產(chǎn)生過擬合的原因!

那么我拿著這個(gè)有噪聲訓(xùn)練的模型,在訓(xùn)練集合上通過不斷訓(xùn)練,可以做到損失函數(shù)值為 0,但是拿著這個(gè)模型,到真實(shí)總體數(shù)據(jù)分布中(滿足線性模型)去泛化,效果會(huì)非常差,因?yàn)槟隳弥粋€(gè)非線性模型去預(yù)測(cè)線性模型的真實(shí)分布,顯而易得效果是非常差的,也就產(chǎn)生了過擬合現(xiàn)象!

(2)訓(xùn)練數(shù)據(jù)不足,有限的訓(xùn)練數(shù)據(jù)

當(dāng)我們訓(xùn)練數(shù)據(jù)不足的時(shí)候,即使得到的訓(xùn)練數(shù)據(jù)沒有噪聲,訓(xùn)練出來的模型也可能產(chǎn)生過擬合現(xiàn)象,解釋如下:

假設(shè)我們的總體數(shù)據(jù)分布如下:

大白話解釋模型產(chǎn)生過擬合的原因!

(為了容易理解,假設(shè)我們的總體數(shù)據(jù)分布滿足的模型是一個(gè)二次函數(shù)模型)

我們得到的訓(xùn)練數(shù)據(jù)由于是有限的,比如是下面這個(gè):

大白話解釋模型產(chǎn)生過擬合的原因!

(我只得到了 A,B 兩個(gè)訓(xùn)練數(shù)據(jù))

那么由這個(gè)訓(xùn)練數(shù)據(jù),我得到的模型是一個(gè)線性模型,通過訓(xùn)練較多的次數(shù),我可以得到在訓(xùn)練數(shù)據(jù)使得損失函數(shù)為 0 的線性模型,拿這個(gè)模型我去泛化真實(shí)的總體分布數(shù)據(jù)(實(shí)際上是滿足二次函數(shù)模型),很顯然,泛化能力是非常差的,也就出現(xiàn)了過擬合現(xiàn)象!

(3)訓(xùn)練模型過度導(dǎo)致模型非常復(fù)雜

訓(xùn)練模型過度導(dǎo)致模型非常復(fù)雜,也會(huì)導(dǎo)致過擬合現(xiàn)象!這點(diǎn)和第一點(diǎn)倆點(diǎn)原因結(jié)合起來其實(shí)非常好理解,當(dāng)我們?cè)谟?xùn)練數(shù)據(jù)訓(xùn)練的時(shí)候,如果訓(xùn)練過度,導(dǎo)致完全擬合了訓(xùn)練數(shù)據(jù)的話,得到的模型不一定是可靠的。

比如說,在有噪聲的訓(xùn)練數(shù)據(jù)中,我們要是訓(xùn)練過度,會(huì)讓模型學(xué)習(xí)到噪聲的特征,無疑是會(huì)造成在沒有噪聲的真實(shí)測(cè)試集上準(zhǔn)確率下降!

好了,到這里本文要講的內(nèi)容已經(jīng)講完了,我根據(jù)自己的理解,試圖通俗的講解產(chǎn)生過擬合的原因,希望能夠讓更多的人有一個(gè)直觀的理解~ 真心希望對(duì)大家有幫助,歡迎大家指錯(cuò)交流~

雷鋒網(wǎng)按:本文原作者憶臻,原載于作者的知乎專欄。


深度學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)特訓(xùn)班

20年清華大學(xué)神經(jīng)網(wǎng)絡(luò)授課導(dǎo)師鄧志東教授,帶你系統(tǒng)學(xué)習(xí)人工智能之神經(jīng)網(wǎng)絡(luò)理論及應(yīng)用!

課程鏈接:http://www.mooc.ai/course/65

加入AI慕課學(xué)院人工智能學(xué)習(xí)交流QQ群:624413030,與AI同行一起交流成長(zhǎng)


雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

大白話解釋模型產(chǎn)生過擬合的原因!

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說