丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能開發(fā)者 正文
發(fā)私信給美圖數(shù)據(jù)技術(shù)團(tuán)隊(duì)
發(fā)送

0

科普 | 貝葉斯概率模型一覽

導(dǎo)語:貝葉斯學(xué)派和概率學(xué)派在小數(shù)據(jù)量的場(chǎng)景下的推論結(jié)果常常是有一定區(qū)別的,因此它有存在的必要。

雷鋒網(wǎng)按:本文出自美圖數(shù)據(jù)研究院

什么是貝葉斯概率模型?

機(jī)器學(xué)習(xí)狹義上是指代統(tǒng)計(jì)機(jī)器學(xué)習(xí),如圖 1 所示,統(tǒng)計(jì)學(xué)習(xí)根據(jù)任務(wù)類型可以分為監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、增強(qiáng)學(xué)習(xí)等。

科普 | 貝葉斯概率模型一覽

圖 1

在每類任務(wù)中,又可以將各類模型歸結(jié)為概率模型和非概率模型,以下以監(jiān)督學(xué)習(xí)為例說明。

概率模型(生成模型)通過函數(shù) F 來描述 X 和 Y 的聯(lián)合概率或者條件概率分布,如 P(X|Y);非概率模型(判別模型)通過函數(shù) F 來直接描述 X 到 Y 的映射,如 Y=f(X)。判別模型的優(yōu)化目標(biāo)五花八門,但都符合人類認(rèn)知;而在概率模型中,所有模型的優(yōu)化目標(biāo)是統(tǒng)一的,即最大化觀測(cè)數(shù)據(jù)在概率模型中出現(xiàn)的概率。這兩者在部分模型表現(xiàn)形式上又可以互相解釋,如神經(jīng)網(wǎng)絡(luò)等。

貝葉斯概率模型的誕生

所有概率模型描述的都是在系統(tǒng)參數(shù) w 下觀測(cè)變量對(duì) X,Y 的聯(lián)合概率分布或條件概率分布,即 P(Y,X|w) 。設(shè)計(jì)好概率模型后,剩下的問題就是如何通過大量的觀測(cè)數(shù)據(jù)來決定參數(shù) w, 這時(shí)出現(xiàn)了貝葉斯理論。

頻率學(xué)派主張大數(shù)定律,對(duì)參數(shù)的最佳選擇是使觀測(cè)變量概率最大的值;而貝葉斯學(xué)派提出了貝葉斯公式和主觀概率,他們認(rèn)為參數(shù)可以是一個(gè)分布,并且最初可以通過主觀經(jīng)驗(yàn)設(shè)置。頻率學(xué)派的人對(duì)此是無法接受的,他們認(rèn)為參數(shù)應(yīng)該是一個(gè)確定的值不應(yīng)該有隨機(jī)性。

舉個(gè)例子,有個(gè)檢測(cè)太陽是否爆炸的探測(cè)器,它有 0.3 左右的概率撒謊。當(dāng)探測(cè)器說出太陽爆炸時(shí),兩個(gè)學(xué)派的人答案是不一樣的。

科普 | 貝葉斯概率模型一覽

圖 2

如圖 3 所示這里太陽的狀態(tài)是系統(tǒng)參數(shù) w,探測(cè)器回答是觀測(cè)變量 data。以頻率學(xué)派的理論來討論,如果參數(shù)只能是一個(gè)確定的值,那么應(yīng)該選取出錯(cuò)概率最小的那個(gè)參數(shù),那太陽應(yīng)該是爆炸了;如果以貝葉斯學(xué)派來討論,將參數(shù)視為分布,并根據(jù)我們的經(jīng)驗(yàn)賦予先驗(yàn),得到的后驗(yàn)認(rèn)為太陽應(yīng)該是沒有爆炸的,只有當(dāng)探測(cè)器多次回答「yes」,后驗(yàn)分布才會(huì)相信太陽爆炸了。

科普 | 貝葉斯概率模型一覽

圖 3

貝葉斯學(xué)派和概率學(xué)派在小數(shù)據(jù)量的場(chǎng)景下的推論結(jié)果常常是有一定區(qū)別的,因此它有存在的必要。

構(gòu)建貝葉斯概率模型

接下里通過構(gòu)建貝葉斯概率模型案例直觀地感受貝葉斯概率模型的核心概念、構(gòu)建思想和優(yōu)勢(shì)。

CKF(Collaborative Kalman filter)

科普 | 貝葉斯概率模型一覽

圖 4

如圖 4 所示,這種基于頻率學(xué)派模型存在兩個(gè)比較大的缺陷:

  • 無法增量訓(xùn)練。理論上每新增一條用戶行為,模型就要重新估計(jì)一遍參數(shù);

  • 無法處理用戶興趣漂移。粗暴的做法是設(shè)置時(shí)間衰減,但是衰減的函數(shù)和力度都需要人工把握,模型對(duì)超參數(shù)很敏感,而且每個(gè)用戶的興趣漂移能力應(yīng)該是不同的,這點(diǎn)無法建模。

根據(jù)以上提到的兩大缺陷,通過貝葉斯將該模型進(jìn)行改造。首先將參數(shù)都變成分布的,把用戶向量 u 和物品向量 w 都賦予維納過程:

科普 | 貝葉斯概率模型一覽

給 u 和 w 賦予一個(gè)方差很大的先驗(yàn)分布。輸入數(shù)據(jù)時(shí)計(jì)算后驗(yàn)。將后驗(yàn)通過維納過程得到下一刻的先驗(yàn):

科普 | 貝葉斯概率模型一覽

每個(gè)用戶的興趣漂移能力不同:

科普 | 貝葉斯概率模型一覽

*這里通過維納過程算下一刻先驗(yàn),實(shí)質(zhì)上在上一刻后驗(yàn)的基礎(chǔ)上加一個(gè)方差 α。從而保證狀態(tài)始終有一個(gè)漂移能力,如果這個(gè) α 等于 0,就會(huì)出現(xiàn)隨著推理的進(jìn)行 u 的分布只會(huì)越來越集中,這樣即便后面用戶興趣漂移了,由于先驗(yàn)分布集中,似然函數(shù)無法調(diào)整。所以這里的 α 控制的是興趣漂移的能力。

再設(shè)一層概率分布,令 α 也為一個(gè)維納過程,讓每個(gè)用戶的興趣漂移能力可以自適應(yīng)去調(diào)整和變化:

科普 | 貝葉斯概率模型一覽

經(jīng)過貝葉斯改造之后,CFK 模型有以下優(yōu)勢(shì):

  • 訓(xùn)練過程中是增量進(jìn)行的;

  • 無參化,數(shù)據(jù)越來越多時(shí),后驗(yàn)方差會(huì)越來越小,分布越來越集中,實(shí)現(xiàn)先驗(yàn)與數(shù)據(jù)的自動(dòng)權(quán)衡;

  • 漂移參數(shù)自適應(yīng),當(dāng)用戶興趣發(fā)生漂移時(shí),狀態(tài)會(huì)跟隨著漂移。

Bayesian Neural Networks

Bayesian Neural Networks 是指通過后驗(yàn)推理擴(kuò)展標(biāo)準(zhǔn)網(wǎng)絡(luò)。通過優(yōu)化標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)訓(xùn)練(從概率學(xué)派的角度來看)等同于權(quán)重的最大似然估計(jì)。

科普 | 貝葉斯概率模型一覽

圖 5

它存在以下三大缺陷:

  • 無法增量訓(xùn)練;

  • 網(wǎng)絡(luò)結(jié)構(gòu)等需要超參數(shù)設(shè)置;

  • 無法衡量預(yù)測(cè)不確定性。

科普 | 貝葉斯概率模型一覽

針對(duì)以上問題的解決方案是引入正則化,從貝葉斯學(xué)派的角度來看,這相當(dāng)于在權(quán)重上引入先驗(yàn)。從概率學(xué)派的角度來看這不是正確的做法,盡管它在實(shí)踐中確實(shí)很有效。改造后它有以下優(yōu)勢(shì):

  • 可以進(jìn)行增量訓(xùn)練;

  • 非參數(shù)模型,無參并非沒有超參數(shù),而是把超參數(shù)隱藏到更深層,以達(dá)到更弱的參數(shù)敏感性;

  • 可以刻畫預(yù)測(cè)的不確定性;

  • 先驗(yàn)與數(shù)據(jù)自動(dòng)權(quán)衡。

如何更新模型?

變分推理 Variational inference

問題描述:觀測(cè)變量 X={x1,x2,……,xn},  隱變量 Z={z1,z2,……zm},已知 P(X,Z) 或 P(X | Z),求后驗(yàn)分布 P(Z | X)。由于后驗(yàn)分布有時(shí)很難獲得解析解,在受限制函數(shù)空間中搜索與后驗(yàn)分布函數(shù)近似的函數(shù),這里需要一個(gè)函數(shù)相似性的度量(泛函):

科普 | 貝葉斯概率模型一覽

那么如何獲得近似解 q(Z) 呢?

Step 1: 通過調(diào)整 q(Z), 最小化 q(Z) 與 后驗(yàn) p(Z|X) 的 KL 散度 KL(q||p)

科普 | 貝葉斯概率模型一覽

Step 2: 將最小優(yōu)化散度 KL(q||p)的問題轉(zhuǎn)化為最大化 L(q)


科普 | 貝葉斯概率模型一覽

*MinKL(q||p) 等價(jià)于 MaxL(q)

考慮概率分布 q(Z)是受限制的類別,我們的?標(biāo)是充分限制 q(Z)可以取得的概率分布的類別范圍,使得這個(gè)范圍中的所有概率分布都是可以處理的概率分布。同時(shí)還要使得這個(gè)范圍充分?、充分靈活,從?它能夠提供對(duì)真實(shí)后驗(yàn)概率分布的?個(gè)?夠好的近似。

Step 3: 利用平均場(chǎng)理論限制函數(shù)空間,將 q(Z)簡(jiǎn)化為互不相關(guān)的幾個(gè)組:

科普 | 貝葉斯概率模型一覽

Step 4: 將分組簡(jiǎn)化后的q(Z)代入以上公式,將其它組視為常來,輪流優(yōu)化

科普 | 貝葉斯概率模型一覽

所有模型的變分推理,都是在交替計(jì)算該公式。該公式與模型無關(guān),當(dāng)對(duì) P(X,Z)賦予具體形式,便可算出 q 的更新公式:

科普 | 貝葉斯概率模型一覽

在對(duì) q(Z)分組的原則及 q(Z)函數(shù)族的選取原則有兩個(gè)小建議:

科普 | 貝葉斯概率模型一覽

1.在概率模型中同一層次的隱變量分在一組,在算積分的時(shí)候可以使其它層次的對(duì)應(yīng)的條件概率因?yàn)椴缓懈慕M內(nèi)的變量而被當(dāng)做常量,不需計(jì)算。

2.q(Z) 的函數(shù)族選取條件分布的共軛分布族,在計(jì)算期望的積分時(shí)需要建條件分布與 q(z)相乘,選取條件分布的共軛分布族保證相乘完的形式還是原來的簡(jiǎn)單形式。

概率反向傳播 Probabilistic Backpropagation

概率反向傳播是貝葉斯神經(jīng)網(wǎng)絡(luò)的更新方式,已知:

科普 | 貝葉斯概率模型一覽

求后驗(yàn)分布 q(ω,Υ,λ)。

Step 1:利用 KL 逼近 w 的后驗(yàn)

w 的后驗(yàn)分布可以寫成科普 | 貝葉斯概率模型一覽,其中 f(w)是與 w 相關(guān)的似然,設(shè)待求后驗(yàn)為高斯分布科普 | 貝葉斯概率模型一覽。

在算關(guān)于 w 的后驗(yàn)過程中,不含有 w 的函數(shù)部分都可以看成常數(shù)忽略掉。因?yàn)?nbsp;w 與另外兩個(gè)方差 γ 和 λ 在不同層次,所以 f(w)中不含有這兩個(gè)參數(shù)。

*這里雖然是搜索最優(yōu)函數(shù),但因?yàn)橄拗屏撕瘮?shù)空間的形式,所以其實(shí)是在搜索最優(yōu)參數(shù) m 和 v

通過最小化 KL 散度 KL(q^new||s),可以得到直接得到如下的最優(yōu)值:

科普 | 貝葉斯概率模型一覽

一般來講這里需使用變分推理,是因?yàn)檫@里的 Z 比較難求(需要求這個(gè)積分):

科普 | 貝葉斯概率模型一覽

但是這里通過 Z 的近似形式來替代,它約等于最后一層神經(jīng)元響應(yīng)的分布:

科普 | 貝葉斯概率模型一覽

Step 2:前向傳播,得到 Z^L 的均值和方差

前向過程本質(zhì)上是一個(gè)概率分布的傳播過程,但是由于都是高斯分布,所以可以簡(jiǎn)化成分布參數(shù)的傳播過程。

科普 | 貝葉斯概率模型一覽

Step 3:利用該公式反向傳播,更新參數(shù)

科普 | 貝葉斯概率模型一覽

最后 Z 將變成含有各層參數(shù)的高斯函數(shù),從而可以進(jìn)行反向梯度計(jì)算并更新各層分布的參數(shù),這樣就解決了貝葉斯神經(jīng)網(wǎng)絡(luò)的模型更新問題。

本文主要介紹了機(jī)器學(xué)習(xí)中的概率模型及貝葉斯理論在概率模型中的應(yīng)用,這也是人工智能目前比較活躍的方向,相信會(huì)有越來越多的工作在這方面進(jìn)行探索,期待新的發(fā)展。我們也會(huì)把貝葉斯神經(jīng)網(wǎng)絡(luò)應(yīng)用于實(shí)際的業(yè)務(wù)中,后續(xù)的文章中將會(huì)與各位交流一些實(shí)踐經(jīng)驗(yàn)。

雷峰網(wǎng)特約稿件,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

科普 | 貝葉斯概率模型一覽

分享:
相關(guān)文章

知情人士

嗯,美圖的數(shù)據(jù)都是我的
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說