丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能開發(fā)者 正文
發(fā)私信給AI研習(xí)社
發(fā)送

1

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

本文作者: AI研習(xí)社 2017-07-17 15:52
導(dǎo)語(yǔ):對(duì)ML的常用算法有個(gè)常識(shí)性的認(rèn)識(shí),沒(méi)有代碼,沒(méi)有復(fù)雜的理論推導(dǎo),就是圖解一下,知道這些算法是什么!

雷鋒網(wǎng)按:原文作者楊熹,載于作者的個(gè)人博客,雷鋒網(wǎng)經(jīng)授權(quán)發(fā)布。文中視頻來(lái)自YouTube,科學(xué)上網(wǎng)后即可觀看。

通過(guò)本篇文章可以對(duì)ML的常用算法有個(gè)常識(shí)性的認(rèn)識(shí),沒(méi)有代碼,沒(méi)有復(fù)雜的理論推導(dǎo),就是圖解一下,知道這些算法是什么,它們是怎么應(yīng)用的,例子主要是分類問(wèn)題。

每個(gè)算法都看了好幾個(gè)視頻,挑出講的最清晰明了有趣的,便于科普。
以后有時(shí)間再對(duì)單個(gè)算法做深入地解析。

今天的算法如下:

  1. 決策樹

  2. 隨機(jī)森林算法

  3. 邏輯回歸

  4. SVM

  5. 樸素貝葉斯

  6. K最近鄰算法

  7. K均值算法

  8. Adaboost 算法

  9. 神經(jīng)網(wǎng)絡(luò)

  10. 馬爾可夫

  1. 決策樹

根據(jù)一些 feature 進(jìn)行分類,每個(gè)節(jié)點(diǎn)提一個(gè)問(wèn)題,通過(guò)判斷,將數(shù)據(jù)分為兩類,再繼續(xù)提問(wèn)。這些問(wèn)題是根據(jù)已有數(shù)據(jù)學(xué)習(xí)出來(lái)的,再投入新數(shù)據(jù)的時(shí)候,就可以根據(jù)這棵樹上的問(wèn)題,將數(shù)據(jù)劃分到合適的葉子上。

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

  2. 隨機(jī)森林

在源數(shù)據(jù)中隨機(jī)選取數(shù)據(jù),組成幾個(gè)子集

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

S 矩陣是源數(shù)據(jù),有 1-N 條數(shù)據(jù),A B C 是feature,最后一列C是類別

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

由 S 隨機(jī)生成 M 個(gè)子矩陣

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

這 M 個(gè)子集得到 M 個(gè)決策樹
將新數(shù)據(jù)投入到這 M 個(gè)樹中,得到 M 個(gè)分類結(jié)果,計(jì)數(shù)看預(yù)測(cè)成哪一類的數(shù)目最多,就將此類別作為最后的預(yù)測(cè)結(jié)果

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

  3. 邏輯回歸

當(dāng)預(yù)測(cè)目標(biāo)是概率這樣的,值域需要滿足大于等于0,小于等于1的,這個(gè)時(shí)候單純的線性模型是做不到的,因?yàn)樵诙x域不在某個(gè)范圍之內(nèi)時(shí),值域也超出了規(guī)定區(qū)間。

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

所以此時(shí)需要這樣的形狀的模型會(huì)比較好

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

那么怎么得到這樣的模型呢?

這個(gè)模型需要滿足兩個(gè)條件 大于等于0,小于等于1
大于等于0 的模型可以選擇 絕對(duì)值,平方值,這里用 指數(shù)函數(shù),一定大于0
小于等于1 用除法,分子是自己,分母是自身加上1,那一定是小于1的了

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

再做一下變形,就得到了 logistic regression 模型

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

通過(guò)源數(shù)據(jù)計(jì)算可以得到相應(yīng)的系數(shù)了

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

最后得到 logistic 的圖形

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

  4. SVM

support vector machine

要將兩類分開,想要得到一個(gè)超平面,最優(yōu)的超平面是到兩類的 margin 達(dá)到最大,margin就是超平面與離它最近一點(diǎn)的距離,如下圖,Z2>Z1,所以綠色的超平面比較好

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

將這個(gè)超平面表示成一個(gè)線性方程,在線上方的一類,都大于等于1,另一類小于等于-1

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

點(diǎn)到面的距離根據(jù)圖中的公式計(jì)算

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

所以得到 total margin 的表達(dá)式如下,目標(biāo)是最大化這個(gè) margin,就需要最小化分母,于是變成了一個(gè)優(yōu)化問(wèn)題

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

舉個(gè)栗子,三個(gè)點(diǎn),找到最優(yōu)的超平面,定義了 weight vector=(2,3)-(1,1)

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

得到 weight vector 為(a,2a),將兩個(gè)點(diǎn)代入方程,代入(2,3)另其值=1,代入(1,1)另其值=-1,求解出 a 和 截矩 w0 的值,進(jìn)而得到超平面的表達(dá)式。

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

a 求出來(lái)后,代入(a,2a)得到的就是 support vector

a 和 w0 代入超平面的方程就是 support vector machine

  5. 樸素貝葉斯

舉個(gè)在 NLP 的應(yīng)用

給一段文字,返回情感分類,這段文字的態(tài)度是positive,還是negative

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

為了解決這個(gè)問(wèn)題,可以只看其中的一些單詞

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

這段文字,將僅由一些單詞和它們的計(jì)數(shù)代表

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

原始問(wèn)題是:給你一句話,它屬于哪一類
通過(guò) bayes rules 變成一個(gè)比較簡(jiǎn)單容易求得的問(wèn)題

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

問(wèn)題變成,這一類中這句話出現(xiàn)的概率是多少,當(dāng)然,別忘了公式里的另外兩個(gè)概率

栗子:?jiǎn)卧~ love 在 positive 的情況下出現(xiàn)的概率是 0.1,在 negative 的情況下出現(xiàn)的概率是 0.001

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

  6. K最近鄰

k nearest neighbours

給一個(gè)新的數(shù)據(jù)時(shí),離它最近的 k 個(gè)點(diǎn)中,哪個(gè)類別多,這個(gè)數(shù)據(jù)就屬于哪一類

栗子:要區(qū)分 貓 和 狗,通過(guò) claws 和 sound 兩個(gè)feature來(lái)判斷的話,圓形和三角形是已知分類的了,那么這個(gè) star 代表的是哪一類呢

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

k=3時(shí),這三條線鏈接的點(diǎn)就是最近的三個(gè)點(diǎn),那么圓形多一些,所以這個(gè)star就是屬于貓

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

  7. K均值

想要將一組數(shù)據(jù),分為三類,粉色數(shù)值大,黃色數(shù)值小
最開心先初始化,這里面選了最簡(jiǎn)單的 3,2,1 作為各類的初始值
剩下的數(shù)據(jù)里,每個(gè)都與三個(gè)初始值計(jì)算距離,然后歸類到離它最近的初始值所在類別

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

分好類后,計(jì)算每一類的平均值,作為新一輪的中心點(diǎn)

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

幾輪之后,分組不再變化了,就可以停止了

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

  8. Adaboost

adaboost 是 bosting 的方法之一

bosting就是把若干個(gè)分類效果并不好的分類器綜合起來(lái)考慮,會(huì)得到一個(gè)效果比較好的分類器。

下圖,左右兩個(gè)決策樹,單個(gè)看是效果不怎么好的,但是把同樣的數(shù)據(jù)投入進(jìn)去,把兩個(gè)結(jié)果加起來(lái)考慮,就會(huì)增加可信度

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

adaboost 的栗子,手寫識(shí)別中,在畫板上可以抓取到很多 features,例如 始點(diǎn)的方向,始點(diǎn)和終點(diǎn)的距離等等

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

training 的時(shí)候,會(huì)得到每個(gè) feature 的 weight,例如 2 和 3 的開頭部分很像,這個(gè) feature 對(duì)分類起到的作用很小,它的權(quán)重也就會(huì)較小

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

而這個(gè) alpha 角 就具有很強(qiáng)的識(shí)別性,這個(gè) feature 的權(quán)重就會(huì)較大,最后的預(yù)測(cè)結(jié)果是綜合考慮這些 feature 的結(jié)果

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

  9. 神經(jīng)網(wǎng)絡(luò)

Neural Networks 適合一個(gè)input可能落入至少兩個(gè)類別里

NN 由若干層神經(jīng)元,和它們之間的聯(lián)系組成
第一層是 input 層,最后一層是 output 層

在 hidden 層 和 output 層都有自己的 classifier

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

input 輸入到網(wǎng)絡(luò)中,被激活,計(jì)算的分?jǐn)?shù)被傳遞到下一層,激活后面的神經(jīng)層,最后output 層的節(jié)點(diǎn)上的分?jǐn)?shù)代表屬于各類的分?jǐn)?shù),下圖例子得到分類結(jié)果為 class 1

同樣的 input 被傳輸?shù)讲煌墓?jié)點(diǎn)上,之所以會(huì)得到不同的結(jié)果是因?yàn)楦髯怨?jié)點(diǎn)有不同的weights 和 bias

這也就是 forward propagation

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

  10. 馬爾可夫

Markov Chains 由 state 和 transitions 組成

栗子,根據(jù)這一句話 ‘the quick brown fox jumps over the lazy dog’,要得到 markov chain

步驟,先給每一個(gè)單詞設(shè)定成一個(gè)狀態(tài),然后計(jì)算狀態(tài)間轉(zhuǎn)換的概率

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

這是一句話計(jì)算出來(lái)的概率,當(dāng)你用大量文本去做統(tǒng)計(jì)的時(shí)候,會(huì)得到更大的狀態(tài)轉(zhuǎn)移矩陣,例如 the 后面可以連接的單詞,及相應(yīng)的概率

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

生活中,鍵盤輸入法的備選結(jié)果也是一樣的原理,模型會(huì)更高級(jí)

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

輕松看懂機(jī)器學(xué)習(xí)十大常用算法

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)