0
本文作者: 木子 | 2020-07-07 11:39 |
近日,創(chuàng)新奇智有關(guān)少樣本學(xué)習(Few-shot Learning)的研究論文《Prototype Rectification for Few-Shot Learning》被全球計算機視覺頂會ECCV 2020接收為Oral論文,入選率僅2%。
ECCV全稱為European Conference on Computer Vision(歐洲計算機視覺國際會議),與ICCV和CVPR合稱為全球計算機視覺三大頂級會議,每兩年舉辦一次。據(jù)大會官方介紹,本屆會議共收到5025份有效投稿,共接收1361篇,錄取率為27%,其中1361篇接收論文里面,有104篇Oral以及161篇 Spotlight,分別占比2%和5%,堪稱史上最難ECCV。
創(chuàng)新奇智CTO張發(fā)恩表示:“當前的深度學(xué)習技術(shù)對數(shù)據(jù)具有極大依賴性,如何減小數(shù)據(jù)依賴,利用較少的數(shù)據(jù)取得理想的識別效果成為當下亟待突破的技術(shù)難點。少樣本學(xué)習旨在從已有類別的數(shù)據(jù)中學(xué)習先驗知識,然后利用極少的標注數(shù)據(jù)完成對新類別的識別,打破了樣本數(shù)據(jù)量的制約,在傳統(tǒng)制造業(yè)等樣本普遍缺失的領(lǐng)域具有實用價值,有助于推動AI落地?!?/p>
創(chuàng)新奇智本次發(fā)表的論文指出,少樣本學(xué)習的瓶頸在于數(shù)據(jù)稀缺引起的偏差,主要包括類內(nèi)偏差和跨類偏差,并提出相應(yīng)方法有針對性地減小兩項偏差,該思路經(jīng)過嚴格的理論證明其合理性,并通過大量實驗證明了方法的有效性,在少樣本學(xué)習通用的數(shù)據(jù)集中達到了最優(yōu)的結(jié)果。
以下為論文解讀:
(論文初版arXiv地址為:https://arxiv.org/abs/1911.10713 。 后續(xù)Camera Ready版本將于近日更新,補充了更多數(shù)據(jù)集上的表現(xiàn)。
少樣本學(xué)習(Few-shot learning)旨在從大量有標注數(shù)據(jù)的類別中學(xué)習到普遍的規(guī)律,利用學(xué)習到的知識,能夠使用少量的有標注數(shù)據(jù)(如一張或五張)完成對新類別的識別。原型網(wǎng)絡(luò)是少樣本學(xué)習中一類非常有效的方法,其針對不同的類別提取出對應(yīng)的類原型,然后根據(jù)樣本與類原型之間的距離進行分類。由于新類別的樣本數(shù)量極少,原型網(wǎng)絡(luò)所計算出的類原型存在一定的偏差。本文指出了制約原型網(wǎng)絡(luò)效果的兩個關(guān)鍵因素:類內(nèi)偏差和跨類偏差,并且提出利用偽標簽的方法減小類內(nèi)偏差,利用特征偏移的方法減小跨類偏差,進一步通過理論分析指出原型網(wǎng)絡(luò)準確率的理論下界,證明偽標簽的方法可以提高理論下界從而提高整體準確率,最后,實驗結(jié)果表明,本文的方法在miniImageNet和tieredImageNet上達到了最高水平的結(jié)果。
主要貢獻
本文指出了原型網(wǎng)絡(luò)在少樣本學(xué)習中的兩項制約因素:類內(nèi)偏差(intra-class bias)及跨類偏差(cross-class bias)。
本文利用偽標簽和特征偏移,進行原型校正和減小偏差,簡單有效地提高了少樣本分類的表現(xiàn)。
本文分析了理論下界與樣本數(shù)量之間的關(guān)系,從而驗證了所提方法的合理性,并給出了偏移量的推導(dǎo)過程。
本文所提出的方法在通用的少樣本數(shù)據(jù)集miniImageNet和tieredImageNet上達到了最優(yōu)的結(jié)果。
2.1 基于余弦相似度的原型網(wǎng)絡(luò)(CSPN)
本文利用基于余弦相似度的原型網(wǎng)絡(luò)(Cosine Similarity Based Prototypical Network,CSPN)得到少樣本類別(few-shot class)的基礎(chǔ)類原型。
首先在基礎(chǔ)類別(base class)上訓(xùn)練特征提取器和余弦分類器,余弦分類器定義如下:
其中Fθ是特征提取器,W 為可學(xué)習權(quán)重,τ為溫度參數(shù)。在模型訓(xùn)練階段使用如下?lián)p失函數(shù):
預(yù)訓(xùn)練結(jié)束后,使用下式得到few-shot class的基礎(chǔ)類原型:
2.2 原型校正中的偏差消除(Bias Diminishing for Prototype Rectification)
在樣本較少的情況下,比如K=1或K=5,計算所得基礎(chǔ)類原型與理想的類原型之間存在一定偏差,減小偏差可以提高類原型的表征能力,從而提高分類準確率,本文指出如下兩種偏差以及對應(yīng)的減小偏差的方法。
類內(nèi)偏差(intra-class bias)
即真實類原型(第一項)和使用少量樣本計算的類原型(第二項)之間的偏差。真實的類原型往往是不可得的,可得的是利用少量有標注的數(shù)據(jù)集(support set)計算得到的類原型,為了減小這兩項之間的偏差,本文提出利用無標注的數(shù)據(jù)集(query set)重新計算類原型。首先通過計算query set中的樣本與基礎(chǔ)類原型之間的余弦相似度獲得query sample的偽標簽,然后將top-z confident的query sample加入support set中,并根據(jù)下式重新計算,得到修正后的類原型P'n:
跨類偏差(cross-class bias)
即整個有標注數(shù)據(jù)集support set和無標注數(shù)據(jù)集query set之間的偏差。為了修正跨類偏差,本文在無標注數(shù)據(jù)中加入偏移量ξ, ξ的具體計算方式如下:
2.3 理論推導(dǎo)Theoretical Analysis
本文通過以下理論推導(dǎo),解釋了上述方法的合理性以及該方法是如何提高少樣本分類表現(xiàn)的。
理論下界
在原型網(wǎng)絡(luò)中,假設(shè)最終的準確率與類原型和樣本間余弦相似度之間呈正相關(guān),即最終優(yōu)化目標可以表示為:
再結(jié)合使用一階近似、柯西施瓦茨不等式等方法進行推導(dǎo)驗證,可以得到模型的理論下界:
可以看出模型最終效果和樣本數(shù)之間呈正相關(guān),因此可以通過引入無標簽樣本來提高模型理論下界,即增大T 可以提高模型表現(xiàn)。
有關(guān)偏移量ξ的推導(dǎo)過程詳見論文,在這里就不敷述了。
3.1實驗結(jié)果
本文在少樣本學(xué)習的兩個公開數(shù)據(jù)集 (miniImageNet, tieredImageNet) 上進行了實驗,與其他方法相比,本文提出的BD-CSPN在1-shot及5-shot的設(shè)置下均達到了最佳效果。
3.2消融實驗
本文通過消融實驗進一步驗證了模型每一部分的有效性。
表中從上到下分別為:不使用原型修正的方法,單獨使用跨類偏差修正,單獨使用類內(nèi)偏差修正以及同時使用類內(nèi)偏差和跨類偏差修正的結(jié)果,可以看到減小偏差對最終結(jié)果有明顯的提升。
本文進一步分析了原型校正中無標注樣本的樣本數(shù)量對于最終結(jié)果的影響,如圖2(a-b)所示,隨著無標注樣本的增多最終效果有持續(xù)的提升,圖2(c)中虛線為通過計算所得到的理論下界,可以看到本文的實驗結(jié)果和理論相符。
本文采用不同的網(wǎng)絡(luò)結(jié)構(gòu)作為特征提取器,驗證了原型校正的方法在不同網(wǎng)絡(luò)結(jié)構(gòu)下均有明顯提升。
本文提出一種簡單有效的少樣本學(xué)習方法,通過減小類內(nèi)偏差和跨類偏差進行原型校正,從而顯著提高少樣本分類結(jié)果,并且給出理論推導(dǎo)證明本文所提方法可以提高理論下界,最終通過實驗表明本方法在通用數(shù)據(jù)集中達到了最優(yōu)結(jié)果,論文被ECCV 2020 接收為Oral。本文中提出的算法已經(jīng)在創(chuàng)新奇智的實際場景中落地應(yīng)用,可以從海量非結(jié)構(gòu)化數(shù)據(jù)中根據(jù)極少數(shù)種子數(shù)據(jù)(1張至5張)挖掘出所需要的同類數(shù)據(jù),可以極大的提升數(shù)據(jù)收集速度和準確率,降低成本。
雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。