丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI科技評論
發(fā)送

0

從零推導(dǎo)支持向量機(jī) (SVM)

本文作者: AI科技評論 編輯:汪思穎 2019-02-07 21:54
導(dǎo)語:本文旨在從零構(gòu)建支持向量機(jī),涵蓋從思想到形式化,再簡化,最后實(shí)現(xiàn)的完整過程,并展現(xiàn)其完整思想脈絡(luò)和所有公式推導(dǎo)細(xì)節(jié)。

雷鋒網(wǎng) AI 科技評論按,本文作者張皓,目前為南京大學(xué)計算機(jī)系機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘所(LAMDA)碩士生,研究方向?yàn)橛嬎銠C(jī)視覺和機(jī)器學(xué)習(xí),特別是視覺識別和深度學(xué)習(xí)。

個人主頁:http://lamda.nju.edu.cn/zhangh/。該文為其給雷鋒網(wǎng) AI 科技評論的獨(dú)家供稿,未經(jīng)許可禁止轉(zhuǎn)載。

摘要

支持向量機(jī) (SVM) 是一個非常經(jīng)典且高效的分類模型。但是,支持向量機(jī)中涉及許多復(fù)雜的數(shù)學(xué)推導(dǎo),并需要比較強(qiáng)的凸優(yōu)化基礎(chǔ),使得有些初學(xué)者雖下大量時間和精力研讀,但仍一頭霧水,最終對其望而卻步。本文旨在從零構(gòu)建支持向量機(jī),涵蓋從思想到形式化,再簡化,最后實(shí)現(xiàn)的完整過程,并展現(xiàn)其完整思想脈絡(luò)和所有公式推導(dǎo)細(xì)節(jié)。本文力圖做到邏輯清晰而刪繁就簡,避免引入不必要的概念、記號等。此外,本文并不需要讀者有凸優(yōu)化的基礎(chǔ),以減輕讀者的負(fù)擔(dān)。對于用到的優(yōu)化技術(shù),在文中均有介紹。

盡管現(xiàn)在深度學(xué)習(xí)十分流行,了解支持向量機(jī)的原理,對想法的形式化、簡化,及一步步使模型更一般化的過程,及其具體實(shí)現(xiàn)仍然有其研究價值。另一方面,支持向量機(jī)仍有其一席之地。相比深度神經(jīng)網(wǎng)絡(luò),支持向量機(jī)特別擅長于特征維數(shù)多于樣本數(shù)的情況,而小樣本學(xué)習(xí)至今仍是深度學(xué)習(xí)的一大難題。

1. 線性二分類模型

給定一組數(shù)據(jù)從零推導(dǎo)支持向量機(jī) (SVM),其中從零推導(dǎo)支持向量機(jī) (SVM),二分類任務(wù)的目標(biāo)是希望從數(shù)據(jù)中學(xué)得一個假設(shè)函數(shù) h: R → {?1,1},使得 h(xi) =yi,即

從零推導(dǎo)支持向量機(jī) (SVM)

用一個更簡潔的形式表示是從零推導(dǎo)支持向量機(jī) (SVM)

更進(jìn)一步,線性二分類模型認(rèn)為假設(shè)函數(shù)的形式是基于對特征 xi 的線性組合,即

從零推導(dǎo)支持向量機(jī) (SVM)

定理 1. 線性二分類模型的目標(biāo)是找到一組合適的參數(shù) (w, b),使得

從零推導(dǎo)支持向量機(jī) (SVM)

即,線性二分類模型希望在特征空間找到一個劃分超平面,將屬于不同標(biāo)記的樣本分開。

證明.

從零推導(dǎo)支持向量機(jī) (SVM)

2. 線性支持向量機(jī)

線性支持向量機(jī) (SVM) [4]也是一種線性二分類模型,也需要找到滿足定理 1 約束的劃分超平面,即 (w, b)。由于能將樣本分開的超平面可能有很多,SVM 進(jìn)一步希望找到離各樣本都比較遠(yuǎn)的劃分超平面。

當(dāng)面對對樣本的隨機(jī)擾動時,離各樣本都比較遠(yuǎn)的劃分超平面對擾動的容忍能力比較強(qiáng),即不容易因?yàn)闃? 本的隨機(jī)擾動使樣本穿越到劃分超平面的另外一側(cè)而產(chǎn)生分類錯誤。因此,這樣的劃分超平面對樣本比較穩(wěn)健,不容易過擬合。另一方面,離各樣本都比較遠(yuǎn)的劃分超平面不僅可以把正負(fù)樣本分開,還可以以比較大的確信度將所有樣本分開,包括難分的樣本,即離劃分超平面近的樣本。

2.1 間隔

在支持向量機(jī)中,我們用間隔 (margin) 刻畫劃分超平面與樣本之間的距離。在引入間隔之前,我們需要 先知道如何計算空間中點(diǎn)到平面的距離。

從零推導(dǎo)支持向量機(jī) (SVM)

定義 1 (間隔 γ ). 間隔表示距離劃分超平面最近的樣本到劃分超平面距離的兩倍,即

從零推導(dǎo)支持向量機(jī) (SVM)

也就是說,間隔表示劃分超平面到屬于不同標(biāo)記的最近樣本的距離之和。

定理 3. 線性支持向量機(jī)的目標(biāo)是找到一組合適的參數(shù)(w, b),使得

從零推導(dǎo)支持向量機(jī) (SVM)

即,線性支持向量機(jī)希望在特征空間找到一個劃分超平面,將屬于不同標(biāo)記的樣本分開,并且該劃分超平面距離各樣本最遠(yuǎn)。

證明. 帶入間隔定義即得。

2.2 線性支持向量機(jī)基本型

定理 3 描述的優(yōu)化問題十分復(fù)雜,難以處理。為了能在現(xiàn)實(shí)中應(yīng)用,我們希望能對其做一些簡化,使其變 為可以求解的、經(jīng)典的凸二次規(guī)劃 (QP) 問題。

定義 2 (凸二次規(guī)劃). 凸二次規(guī)劃的優(yōu)化問題是指目標(biāo)函數(shù)是凸二次函數(shù),約束是線性約束的一類優(yōu)化問題。

從零推導(dǎo)支持向量機(jī) (SVM)

由于對 (w, b) 的放縮不影響解,為了簡化優(yōu)化問題,我們約束 (w, b) 使得

從零推導(dǎo)支持向量機(jī) (SVM)

從零推導(dǎo)支持向量機(jī) (SVM)

從零推導(dǎo)支持向量機(jī) (SVM)

推論 6. 線性支持向量機(jī)基本型中描述的優(yōu)化問題屬于二次規(guī)劃問題,包括 d + 1 個優(yōu)化變量,m 項約束。

證明. 令

從零推導(dǎo)支持向量機(jī) (SVM)

代入公式 10 即得。

3. 對偶問題

現(xiàn)在,我們可以通過調(diào)用現(xiàn)成的凸二次規(guī)劃軟件包來求解定理 5 描述的優(yōu)化問題。不過,通過借助拉格朗 日 (Lagrange) 函數(shù)和對偶 (dual) 問題,我們可以將問題更加簡化。

3.1 拉格朗日函數(shù)與對偶形式

構(gòu)造拉格朗日函數(shù)是求解帶約束優(yōu)化問題的重要方法。

從零推導(dǎo)支持向量機(jī) (SVM)

證明.

從零推導(dǎo)支持向量機(jī) (SVM)

推論 8 (KKT 條件). 公式 21 描述的優(yōu)化問題在最優(yōu)值處必須滿足如下條件。

從零推導(dǎo)支持向量機(jī) (SVM)

證明. 由引理 7 可知,u 必須滿足約束,即主問題可行。對偶問題可行是公式 21 描述的優(yōu)化問題的約束項。αigi(u) = 0 是在主問題和對偶問題都可行的條件下的最大值。

定義 4 (對偶問題). 定義公式 19 描述的優(yōu)化問題的對偶問題為

從零推導(dǎo)支持向量機(jī) (SVM)

引理 10 (Slater 條件). 當(dāng)主問題為凸優(yōu)化問題,即 f 和 gi 為凸函數(shù),hj 為仿射函數(shù),且可行域中至少有一點(diǎn)使不等式約束嚴(yán)格成立時,對偶問題等價于原問題。

證明. 此證明已超出本文范圍,感興趣的讀者可參考 [2]。

從零推導(dǎo)支持向量機(jī) (SVM)

3.2 線性支持向量機(jī)對偶型

線性支持向量機(jī)的拉格朗日函數(shù)為

從零推導(dǎo)支持向量機(jī) (SVM)

證明. 因?yàn)楣?26 內(nèi)層對 (w,b) 的優(yōu)化屬于無約束優(yōu)化問題,我們可以通過令偏導(dǎo)等于零的方法得到 (w,b)的最優(yōu)值。

從零推導(dǎo)支持向量機(jī) (SVM)

將其代入公式 26,消去 (w, b),即得。

推論 13. 線性支持向量機(jī)對偶型中描述的優(yōu)化問題屬于二次規(guī)劃問題,包括 m 個優(yōu)化變量,m + 2 項約束。

證明. 令

從零推導(dǎo)支持向量機(jī) (SVM)

代入公式 10 即得。其中,ei 是第 i 位置元素為 1,其余位置元素為 0 的單位向量。我們需要通過兩個不等式約束從零推導(dǎo)支持向量機(jī) (SVM)從零推導(dǎo)支持向量機(jī) (SVM)來得到一個等式約束。

3.3 支持向量

定理 14 (線性支持向量機(jī)的 KKT 條件). 線性支持向量機(jī)的 KKT 條件如下。

從零推導(dǎo)支持向量機(jī) (SVM)


代入引理 8 即得。

定義 5 (支持向量). 對偶變量 αi > 0 對應(yīng)的樣本。

引理 15. 線性支持向量機(jī)中,支持向量是距離劃分超平面最近的樣本,落在最大間隔邊界上。

從零推導(dǎo)支持向量機(jī) (SVM)

定理 16. 支持向量機(jī)的參數(shù) (w, b) 僅由支持向量決定,與其他樣本無關(guān)。

證明. 由于對偶變量 αi > 0 對應(yīng)的樣本是支持向量,

從零推導(dǎo)支持向量機(jī) (SVM)

其中 SV 代表所有支持向量的集合,b 可以由互補(bǔ)松弛算出。對于某一支持向量 xs 及其標(biāo)記 ys,由于

從零推導(dǎo)支持向量機(jī) (SVM)

實(shí)踐中,為了得到對 b 更穩(wěn)健的估計,通常使用對所有支持向量求解得到 b 的平均值。

推論 17. 線性支持向量機(jī)的假設(shè)函數(shù)可表示為

從零推導(dǎo)支持向量機(jī) (SVM)

證明. 代入公式 35 即得。

4. 核函數(shù)

至此,我們都是假設(shè)訓(xùn)練樣本是線性可分的。即,存在一個劃分超平面能將屬于不同標(biāo)記的訓(xùn)練樣本分開。但在很多任務(wù)中,這樣的劃分超平面是不存在的。支持向量機(jī)通過核技巧 (kernel trick) 來解決樣本不是線性可分的情況 [1]。

4.1 非線性可分問題

既然在原始的特征空間從零推導(dǎo)支持向量機(jī) (SVM)不是線性可分的,支持向量機(jī)希望通過一個映射從零推導(dǎo)支持向量機(jī) (SVM),使得數(shù)據(jù)在新的空間從零推導(dǎo)支持向量機(jī) (SVM)是線性可分的。

引理 18. 當(dāng) d 有限時,一定存在從零推導(dǎo)支持向量機(jī) (SVM),使得樣本在空間從零推導(dǎo)支持向量機(jī) (SVM)中線性可分.

證明. 此證明已超出本文范圍,感興趣的讀者可參考計算學(xué)習(xí)理論中打散 (shatter) 的相應(yīng)部分 [16]。

令 φ(x) 代表將樣本 x 映射到從零推導(dǎo)支持向量機(jī) (SVM)中的特征向量,參數(shù) w 的維數(shù)也要相應(yīng)變?yōu)?img alt="從零推導(dǎo)支持向量機(jī) (SVM)" src="https://static.leiphone.com/uploads/new/images/20190207/5c5c3064dee3d.png?imageView2/2/w/740"/>維,則支持向量機(jī)的基本型和對偶型相應(yīng)變?yōu)椋?/p>

從零推導(dǎo)支持向量機(jī) (SVM)

其中,基本型對應(yīng)于從零推導(dǎo)支持向量機(jī) (SVM)+ 1 個優(yōu)化變量,m 項約束的二次規(guī)劃問題;對偶型對應(yīng)于 m 個優(yōu)化變量,m + 2 項約束的二次規(guī)劃問題。

4.2 核技巧

注意到,在支持向量機(jī)的對偶型中,被映射到高維的特征向量總是以成對內(nèi)積的形式存在,即

從零推導(dǎo)支持向量機(jī) (SVM)

如果先計算特征在空間從零推導(dǎo)支持向量機(jī) (SVM)的映射,再計算內(nèi)積,復(fù)雜度是從零推導(dǎo)支持向量機(jī) (SVM)。當(dāng)特征被映射到非常高維的空間,甚至是無窮維空間時,這將會是沉重的存儲和計算負(fù)擔(dān)。

核技巧旨在將特征映射和內(nèi)積這兩步運(yùn)算壓縮為一步, 并且使復(fù)雜度由從零推導(dǎo)支持向量機(jī) (SVM)降為從零推導(dǎo)支持向量機(jī) (SVM)。即,核技巧希望構(gòu)造一個核函數(shù) κ(xi,xj),使得從零推導(dǎo)支持向量機(jī) (SVM)并且 κ(xi,xj) 的計算復(fù)雜度是從零推導(dǎo)支持向量機(jī) (SVM)。

從零推導(dǎo)支持向量機(jī) (SVM)

4.3 核函數(shù)選擇

通過向高維空間映射及核技巧,我們可以高效地解決樣本非線性可分問題。但面對一個現(xiàn)實(shí)任務(wù),我們很 難知道應(yīng)該具體向什么樣的高維空間映射,即應(yīng)該選什么樣的核函數(shù),而核函數(shù)選擇的適合與否直接決定整體的性能。

表 1 列出了幾種常用的核函數(shù)。通常,當(dāng)特征維數(shù) d 超過樣本數(shù) m 時 (文本分類問題通常是這種情況),使用線性核;當(dāng)特征維數(shù) d 比較小,樣本數(shù) m 中等時,使用 RBF 核;當(dāng)特征維數(shù) d 比較小,樣本數(shù) m 特別大時,支持向量機(jī)性能通常不如深度神經(jīng)網(wǎng)絡(luò)。

除此之外,用戶還可以根據(jù)需要自定義核函數(shù),但需要滿足 Mercer 條件 [5]。

從零推導(dǎo)支持向量機(jī) (SVM)

反之亦然。

新的核函數(shù)還可以通過現(xiàn)有核函數(shù)的組合得到,使用多個核函數(shù)的凸組合是多核學(xué)習(xí) [9] 的研究內(nèi)容。

從零推導(dǎo)支持向量機(jī) (SVM)

4.4 核方法

上述核技巧不僅使用于支持向量機(jī),還適用于一大類問題。

從零推導(dǎo)支持向量機(jī) (SVM)

即 Φα 比 w 有更小的目標(biāo)函數(shù)值,說明 w 不是最優(yōu)解,與假設(shè)矛盾。因此,最優(yōu)解必定是樣本的線性組合。

此外,原版表示定理適用于任意單調(diào)遞增正則項 Ω(w)。此證明已超出本文范圍,感興趣的讀者可參考 [13]。

表示定理對損失函數(shù)形式?jīng)]有限制,這意味著對許多優(yōu)化問題,最優(yōu)解都可以寫成樣本的線性組合。更進(jìn) 一步,從零推導(dǎo)支持向量機(jī) (SVM)將可以寫成核函數(shù)的線性組合

從零推導(dǎo)支持向量機(jī) (SVM)

通過核函數(shù),我們可以將線性模型擴(kuò)展成非線性模型。這啟發(fā)了一系列基于核函數(shù)的學(xué)習(xí)方法,統(tǒng)稱為核方法 [8]。

5. 軟間隔

不管直接在原特征空間,還是在映射的高維空間,我們都假設(shè)樣本是線性可分的。雖然理論上我們總能找 到一個高維映射使數(shù)據(jù)線性可分,但在實(shí)際任務(wù)中,尋找到這樣一個合適的核函數(shù)通常很難。此外,由于數(shù)據(jù)中通常有噪聲存在,一味追求數(shù)據(jù)線性可分可能會使模型陷入過擬合的泥沼。因此,我們放寬對樣本的要求,即允許有少量樣本分類錯誤。

從零推導(dǎo)支持向量機(jī) (SVM)

5.1 軟間隔支持向量機(jī)基本型

我們希望在優(yōu)化間隔的同時,允許分類錯誤的樣本出現(xiàn),但這類樣本應(yīng)盡可能少:

從零推導(dǎo)支持向量機(jī) (SVM)

其中,從零推導(dǎo)支持向量機(jī) (SVM)是指示函數(shù),C 是個可調(diào)節(jié)參數(shù),用于權(quán)衡優(yōu)化間隔和少量分類錯誤樣本這兩個目標(biāo)。但是,指示函數(shù)不連續(xù),更不是凸函數(shù),使得優(yōu)化問題不再是二次規(guī)劃問題。所以我們需要對其進(jìn)行簡化。

公式 60 難以實(shí)際應(yīng)用的原因在于指示函數(shù)只有兩個離散取值 0/1,對應(yīng)樣本分類正確/錯誤。為了能使優(yōu) 化問題繼續(xù)保持為二次規(guī)劃問題,我們需要引入一個取值為連續(xù)值的變量,刻畫樣本滿足約束的程度。我們引入松弛變量 (slack variable) ξi,用于度量樣本違背約束的程度。當(dāng)樣本違背約束的程度越大,松弛變量值越大。即,

從零推導(dǎo)支持向量機(jī) (SVM)

其中,C 是個可調(diào)節(jié)參數(shù),用于權(quán)衡優(yōu)化間隔和少量樣本違背大間隔約束這兩個目標(biāo)。當(dāng) C 比較大時,我們希望更多的樣本滿足大間隔約束;當(dāng) C 比較小時,我們允許有一些樣本不滿足大間隔約束。

從零推導(dǎo)支持向量機(jī) (SVM)

5.2 軟間隔支持向量機(jī)對偶型

定理 25 (軟間隔支持向量機(jī)對偶型). 軟間隔支持向量機(jī)的對偶問題等價于找到一組合適的 α,使得

從零推導(dǎo)支持向量機(jī) (SVM)

從零推導(dǎo)支持向量機(jī) (SVM)

因?yàn)閮?nèi)層對 (w, b, ξ) 的優(yōu)化屬于無約束優(yōu)化問題,我們可以通過令偏導(dǎo)等于零的方法得到 (w, b, ξ) 的最優(yōu)值。

從零推導(dǎo)支持向量機(jī) (SVM)

推論 26. 軟間隔支持向量機(jī)對偶型中描述的優(yōu)化問題屬于二次規(guī)劃問題,包括 m 個優(yōu)化變量,2m+2 項約束。

從零推導(dǎo)支持向量機(jī) (SVM)

5.3 軟間隔支持向量機(jī)的支持向量

定理 27 (軟間隔支持向量機(jī)的 KKT 條件). 軟間隔支持向量機(jī)的 KKT 條件如下.

從零推導(dǎo)支持向量機(jī) (SVM)

引理 28. 軟間隔支持向量機(jī)中,支持向量落在最大間隔邊界,內(nèi)部,或被錯誤分類的樣本。

從零推導(dǎo)支持向量機(jī) (SVM)

定理 29. 支持向量機(jī)的參數(shù) (w, b) 僅由支持向量決定,與其他樣本無關(guān)。

證明. 和線性支持向量機(jī)證明方式相同。

5.4 鉸鏈損失

引理 30. 公式 61 等價為

從零推導(dǎo)支持向量機(jī) (SVM)

從零推導(dǎo)支持向量機(jī) (SVM)

其中,第一項稱為經(jīng)驗(yàn)風(fēng)險,度量了模型對訓(xùn)練數(shù)據(jù)的擬合程度;第二項稱為結(jié)構(gòu)風(fēng)險,也稱為正則化項,度量了模型自身的復(fù)雜度。正則化項削減了假設(shè)空間,從而降低過擬合風(fēng)險。λ 是個可調(diào)節(jié)的超參數(shù),用于權(quán)衡經(jīng)驗(yàn)風(fēng)險和結(jié)構(gòu)風(fēng)險。

從零推導(dǎo)支持向量機(jī) (SVM)

從零推導(dǎo)支持向量機(jī) (SVM)

6. 優(yōu)化方法

6.1 SMO 

如果直接用經(jīng)典的二次規(guī)劃軟件包求解支持向量機(jī)對偶型,由于從零推導(dǎo)支持向量機(jī) (SVM)的存儲開銷是從零推導(dǎo)支持向量機(jī) (SVM),當(dāng)訓(xùn)練樣本很多時,這將是一個很大的存儲和計算開銷。序列最小化 (SMO) [10]是一個利用支持 向量機(jī)自身特性高效的優(yōu)化算法。SMO 的基本思路是坐標(biāo)下降。

定義 7 (坐標(biāo)下降). 通過循環(huán)使用不同坐標(biāo)方向,每次固定其他元素,只沿一個坐標(biāo)方向進(jìn)行優(yōu)化,以達(dá)到目標(biāo)函數(shù)的局部最小,見算法 1.

我們希望在支持向量機(jī)中的對偶型中,每次固定除 αi 外的其他變量,之后求在 αi 方向上的極值。但由于 約束從零推導(dǎo)支持向量機(jī) (SVM),當(dāng)其他變量固定時,αi 也隨著確定。這樣,我們無法在不違背約束的前提下對 αi 進(jìn)行優(yōu)化。因此,SMO 每步同時選擇兩個變量 αi 和 αj 進(jìn)行優(yōu)化,并固定其他參數(shù),以保證不違背約束。

從零推導(dǎo)支持向量機(jī) (SVM)

定理 32 (SMO 每步的優(yōu)化目標(biāo)). SMO 每步的優(yōu)化目標(biāo)為

從零推導(dǎo)支持向量機(jī) (SVM)

推論 33. SMO 每步的優(yōu)化目標(biāo)可等價為對 αi 的單變量二次規(guī)劃問題。

證明. 由于從零推導(dǎo)支持向量機(jī) (SVM),我們可以將其代入 SMO 每步的優(yōu)化目標(biāo),以消去變量 αj。此時,優(yōu)化目標(biāo)函數(shù)是對于 αi 的二次函數(shù),約束是一個取值區(qū)間 L ≤ αi ≤ H。之后根據(jù)目標(biāo)函數(shù)頂點(diǎn)與區(qū)間 [L, H] 的位置關(guān)系,可以得到 αi 的最優(yōu)值。理論上講,每步優(yōu)化時 αi 和 αj 可以任意選擇,但實(shí)踐中通常取 αi 為違背 KKT 條件最大的變量,而 αj取對應(yīng)樣本與 αi 對應(yīng)樣本之間間隔最大的變量。對 SMO 算法收斂性的測試可以用過檢測是否滿足 KKT 條件得到。

6.2 Pegasos

我們也可以直接在原問題對支持向量機(jī)進(jìn)行優(yōu)化,尤其是使用線性核函數(shù)時,我們有很高效的優(yōu)化算法,如 Pegasos [14]。Pegasos 使用基于梯度的方法在線性支持向量機(jī)基本型

從零推導(dǎo)支持向量機(jī) (SVM)

進(jìn)行優(yōu)化,見算法 2。

從零推導(dǎo)支持向量機(jī) (SVM)

6.3 近似算法

當(dāng)使用非線性核函數(shù)下的支持向量機(jī)時,由于核矩陣從零推導(dǎo)支持向量機(jī) (SVM),所以時間復(fù)雜度一定是從零推導(dǎo)支持向量機(jī) (SVM),因此,有許多學(xué)者致力于研究一些快速的近似算法。例如,CVM [15]基于近似最小包圍球算法,Nystr?m 方法[18]通過從 K 采樣出一些列來得到 K 的低秩近似,隨機(jī)傅里葉特征[12]構(gòu)造了向低維空間的隨機(jī)映射。本章介紹了許多優(yōu)化算法,實(shí)際上現(xiàn)在已有許多開源軟件包對這些算法有很好的實(shí)現(xiàn),目前比較著名的有 LibLinear[7] 和 LibSVM[3],分別適用于線性和非線性核函數(shù)。

7. 支持向量機(jī)的其他變體

ProbSVM. 對數(shù)幾率回歸可以估計出樣本屬于正類的概率,而支持向量機(jī)只能判斷樣本屬于正類或負(fù)類,無法得到概率。ProbSVM[11]先訓(xùn)練一個支持向量機(jī),得到參數(shù) (w, b)。再令從零推導(dǎo)支持向量機(jī) (SVM),將從零推導(dǎo)支持向量機(jī) (SVM)當(dāng)做新的訓(xùn)練數(shù)據(jù)訓(xùn)練一個對數(shù)幾率回歸模型,得到參數(shù)從零推導(dǎo)支持向量機(jī) (SVM)。因此,ProbSVM 的假設(shè)函數(shù)為從零推導(dǎo)支持向量機(jī) (SVM)

對數(shù)幾率回歸模型可以認(rèn)為是對訓(xùn)練得到的支持向量機(jī)的微調(diào),包括尺度 (對應(yīng) θ1) 和平移 (對應(yīng) θ0)。通常 θ1 > 0,θ0 ≈ 0。

多分類支持向量機(jī). 支持向量機(jī)也可以擴(kuò)展到多分類問題中. 對于 K 分類問題,多分類支持向量機(jī) [17] 有 K 組參數(shù)從零推導(dǎo)支持向量機(jī) (SVM),并希望模型對于屬于正確標(biāo)記的結(jié)果以 1 的間隔高于其他類的結(jié) 果,形式化如下

從零推導(dǎo)支持向量機(jī) (SVM)

從零推導(dǎo)支持向量機(jī) (SVM)

References

[1] B. E. Boser, I. M. Guyon, and V. N. Vapnik. A training algorithm for optimal margin classifiers. In Proceedings of the Annual Workshop on Computational Learning Theory, pages 144–152, 1992. 5

[2] S. Boyd and L. Vandenberghe. Convex optimization. Cambridge university press, 2004. 4

[3] C.-C. Chang and C.-J. Lin. LIBSVM: A library for support vector machines. ACM Transactions on Intelligent Systems and Technology, 2(3):27, 2011. 10

[4] C. Cortes and V. Vapnik. Support-vector networks. Machine Learning, 20(3):273–297, 1995. 1 [5] N. Cristianini and J. Shawe-Taylor. An introduction to support vector machines and other kernel-based learning methods. Cambridge University Press, 2000. 6

[6] H. Drucker, C. J. Burges, L. Kaufman, A. J. Smola, and V. Vapnik. Support vector regression machines. In Advances in Neural Information Processing Systems, pages 155–161, 1997. 10

[7] R.-E. Fan, K.-W. Chang, C.-J. Hsieh, X.-R. Wang, and C.-J. Lin. LIBLINEAR: A library for large linear classification. Journal of Machine Learning Research, 9(8):1871–1874, 2008. 10

[8] T. Hofmann, B. Sch?lkopf, and A. J. Smola. Kernel methods in machine learning. The Annals of Statistics, pages 1171–1220, 2008. 6

[9] G. R. Lanckriet, N. Cristianini, P. Bartlett, L. E. Ghaoui, and M. I. Jordan. Learning the kernel matrix with semidefinite programming. Journal of Machine Learning Research, 5(1):27–72, 2004. 6 [10] J. Platt. Sequential minimal optimization: A fast algorithm for training support vector machines. Micriosoft Research, 1998. 9

[11] J. Platt et al. Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods. Advances in Large Margin Classifiers, 10(3):61–74, 1999. 10

[12] A. Rahimi and B. Recht. Random features for largescale kernel machines. In Advances in Neural Information Processing Systems, pages 1177–1184, 2008. 10

[13] B. Scholkopf and A. J. Smola. Learning with kernels: support vector machines, regularization, optimization, and beyond. MIT press, 2001. 6

[14] S. Shalev-Shwartz, Y. Singer, N. Srebro, and A. Cotter. Pegasos: Primal estimated sub-gradient solver for SVM. Mathematical Programming, 127(1):3–30, 2011. 9

[15] I. W. Tsang, J. T. Kwok, and P.-M. Cheung. Core vector machines: Fast SVM training on very large data sets. Journal of Machine Learning Research, 6(4):363– 392, 2005. 10

[16] V. Vapnik. The nature of statistical learning theory. Springer Science & Business Media, 2013. 5

[17] J. Weston, C. Watkins, et al. Support vector machines for multi-class pattern recognition. In Proceedings of the European Symposium on Artificial Neural Networks, volume 99, pages 219–224, 1999. 10

[18] C. K. Williams and M. Seeger. Using the nystr?m method to speed up kernel machines. In Advances in Neural Information Processing Systems, pages 682–688, 2001. 10

[19] 周志華. 機(jī)器學(xué)習(xí). 清華大學(xué)出版社, 2016. 9

雷峰網(wǎng)特約稿件,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

從零推導(dǎo)支持向量機(jī) (SVM)

分享:
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說