0
本文作者: 汪思穎 | 2017-07-30 08:06 |
雷鋒網(wǎng)AI科技評(píng)論按:雖然CVPR 2017已經(jīng)落下帷幕,但對(duì)精彩論文的解讀還在繼續(xù)。下文是宜遠(yuǎn)智能的首席科學(xué)家劉凱對(duì)此次大會(huì)收錄的《用于生物醫(yī)學(xué)圖像分析的精細(xì)調(diào)節(jié)卷積神經(jīng)網(wǎng)絡(luò):主動(dòng)性&增量性》(Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively and Incrementally)一文進(jìn)行的解讀。
文章介紹:
這篇主要針對(duì)醫(yī)學(xué)圖像處理領(lǐng)域標(biāo)注數(shù)據(jù)匱乏的問(wèn)題,如何通過(guò)卷積神經(jīng)網(wǎng)絡(luò)(CNN)的Fine-tune和主動(dòng)學(xué)習(xí)(Active Learning)來(lái)解決。使用CNN進(jìn)行生物醫(yī)學(xué)圖像分析在最近幾年得到了比較多的關(guān)注,但面臨的一個(gè)問(wèn)題是缺乏大量的標(biāo)注數(shù)據(jù),相比imagenet,對(duì)醫(yī)學(xué)圖像進(jìn)行標(biāo)注需要大量的專(zhuān)業(yè)背景知識(shí),為了節(jié)約標(biāo)注的成本和時(shí)間,這篇論文提供了一個(gè)新型的方法AIFT(Active,Incremental Fine-Tuning),把主動(dòng)學(xué)習(xí)和遷移學(xué)習(xí)集成到一個(gè)框架。AIFT算法開(kāi)始是直接使用一個(gè)預(yù)訓(xùn)練從未標(biāo)注數(shù)據(jù)里找一些比較值得標(biāo)注的樣本,然后模型持續(xù)的加入新標(biāo)注的數(shù)據(jù),一直做微調(diào)。
AIFT方法是在CAD(計(jì)算機(jī)輔助診斷)系統(tǒng)的環(huán)境下使用,CAD可以生成候選集U,都是未標(biāo)注數(shù)據(jù),其中每一個(gè)候選樣本(candidate)通過(guò)數(shù)據(jù)增強(qiáng)可以生成一系列的patches,由于這些patches來(lái)自于同一個(gè)候選樣本,所以它們的標(biāo)簽跟該候選樣本一致。
AIFT方法的主要?jiǎng)?chuàng)新點(diǎn)體現(xiàn)在如下幾個(gè)方面:
持續(xù)性的fine-tuning
一開(kāi)始標(biāo)注數(shù)據(jù)集L是空的,我們拿一個(gè)已經(jīng)訓(xùn)練好了的CNN(比如AlexNet),讓它在未標(biāo)注數(shù)據(jù)集U中選b個(gè)候選集來(lái)找醫(yī)生標(biāo)注,這新標(biāo)注的候選集將會(huì)放到標(biāo)注數(shù)據(jù)集L中,來(lái)持續(xù)的增量式fine-tune那個(gè)CNN直到合格,通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),持續(xù)的fine-tuning CNN相比在原始的預(yù)訓(xùn)練中重復(fù)性的fine-tuning CNN,可以讓數(shù)據(jù)集收斂更快。
通過(guò)Active learning選擇候選樣本
主動(dòng)學(xué)習(xí)的關(guān)鍵是找到一個(gè)標(biāo)準(zhǔn)來(lái)評(píng)判候選樣本是否值得標(biāo)注,在當(dāng)前CNN中,一個(gè)候選樣本生成的所有patches都應(yīng)該是有差不多的預(yù)測(cè)。所以我們可以先通過(guò)這個(gè)CNN來(lái)對(duì)每個(gè)候選樣本的每個(gè)patch進(jìn)行預(yù)測(cè),然后對(duì)每個(gè)候選樣本,通過(guò)計(jì)算patch的熵和patch之間KL距離來(lái)衡量這個(gè)候選樣本。如果熵越高,說(shuō)明包含更多的信息,如果KL距離越大,說(shuō)明patch間的不一致性大,所以這兩個(gè)指標(biāo)越高,越有可能對(duì)當(dāng)前的CNN優(yōu)化越大。對(duì)每個(gè)矩陣都可以生成一個(gè)包含patch的KL距離和熵的鄰接矩陣R。
通過(guò)少數(shù)服從多數(shù)來(lái)處理噪音
我們普遍都會(huì)使用一些自動(dòng)的數(shù)據(jù)增強(qiáng)的方法,來(lái)提高CNN的表現(xiàn),但是不可避免的給某些候選樣本生成了一些難的樣本,給數(shù)據(jù)集注入了一些噪音。所以為了顯著的提高我們方法的魯棒性,我們依照于當(dāng)前CNN的預(yù)測(cè),對(duì)每個(gè)候選樣本只選擇一部分的patch來(lái)計(jì)算熵和多樣性。首先對(duì)每個(gè)候選樣本的所有patch,計(jì)算平均的預(yù)測(cè)概率,如果平均概率大于0.5,我們只選擇概率最高的部分patch,如果概率小于0.5,選最低的部分patch,再基于已經(jīng)選擇的patch,來(lái)構(gòu)建得分矩陣R。
預(yù)測(cè)出的結(jié)果有不同的模式
對(duì)每個(gè)候選樣本進(jìn)行計(jì)算所有補(bǔ)丁的概率分布直方圖,對(duì)于概率的分布有以下幾種模式:
1、patch大部分集中在0.5,不確定性很高,大多數(shù)的主動(dòng)學(xué)習(xí)算法都喜歡這種候選集。
2、比a還更好,預(yù)測(cè)從0-1分布均勻,導(dǎo)致了更高的不確定性,因?yàn)樗械膒atch都是通過(guò)同一個(gè)候選集數(shù)據(jù)增強(qiáng)得到,他們理論上應(yīng)該要有差不多的預(yù)測(cè)。這種類(lèi)型的候選集有明顯優(yōu)化CNN模型的潛力。
3、預(yù)測(cè)分布聚集在兩端,導(dǎo)致了更高的多樣性,但是很有可能和patch的噪聲有關(guān),這是主動(dòng)學(xué)習(xí)中最不喜歡的樣本,因?yàn)橛锌赡茉趂ine-tuning的時(shí)候迷惑CNN。
4、預(yù)測(cè)分布集中在一端(0或1),包含更高的確定性,這類(lèi)數(shù)據(jù)的標(biāo)注優(yōu)先級(jí)要降低,因?yàn)楫?dāng)前模型已經(jīng)能夠很好的預(yù)測(cè)它們了。
5、在某些補(bǔ)丁的預(yù)測(cè)中有更高的確定性,并且有些還和離群點(diǎn)有關(guān)聯(lián),這類(lèi)候選集是有價(jià)值的,因?yàn)槟軌蚱交母纳艭NN的表現(xiàn),盡管不能有顯著的貢獻(xiàn),但對(duì)當(dāng)前CNN模型不會(huì)有任何傷害。
應(yīng)用的創(chuàng)新:
上述方法被應(yīng)用在了結(jié)腸鏡視頻幀分類(lèi)和肺栓塞檢測(cè)上,得到了比較好的效果。前者只用了800個(gè)候選樣本就達(dá)到了最好的表現(xiàn),只用了5%的候選樣本就代表了剩下的候選樣本,因?yàn)檫B續(xù)的視頻幀通常都差不多。后者使用了1000個(gè)樣本就達(dá)到了AlexNet做Fine-tune使用2200個(gè)隨機(jī)樣本的效果。
該工作的主要優(yōu)勢(shì)包括如下幾點(diǎn):
1、從一個(gè)完全未標(biāo)注的數(shù)據(jù)集開(kāi)始,不需要初始的種子標(biāo)注數(shù)據(jù)。
2、通過(guò)持續(xù)的fine-tuning而不是重復(fù)的重新訓(xùn)練來(lái)一步一步改善學(xué)習(xí)器。
3、通過(guò)挖掘每一個(gè)候選樣本的補(bǔ)丁的一致性來(lái)選擇值得標(biāo)注的候選集。
4、自動(dòng)處理噪音
5、只對(duì)每個(gè)候選集中小數(shù)量的補(bǔ)丁計(jì)算熵和KL距離,節(jié)約了計(jì)算。
總結(jié)下來(lái),該工作提出的方法顯著的減低標(biāo)注的工作量,并且有指導(dǎo)的選擇哪些數(shù)據(jù)需要標(biāo)注,同時(shí)降低了數(shù)據(jù)增強(qiáng)帶來(lái)的噪聲影響。這個(gè)方向在醫(yī)學(xué)圖像處理領(lǐng)域有非常大的價(jià)值,相信會(huì)得到越來(lái)越多的關(guān)注。
劉凱博士將于8月1日晚八點(diǎn)對(duì)CVPR2017收錄的Joint Sequence Learning and Cross-Modality Convolution for 3D Biomedical Segmentation一文進(jìn)行直播講解,詳情請(qǐng)看下圖。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。