丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給汪思穎
發(fā)送

0

CVPR2017精彩論文解讀:用于生物醫(yī)學(xué)圖像分析的精細調(diào)節(jié)卷積神經(jīng)網(wǎng)絡(luò)

本文作者: 汪思穎 2017-07-30 08:06
導(dǎo)語:利用AIFT(Active,Incremental Fine-Tuning),把主動學(xué)習(xí)和遷移學(xué)習(xí)集成到一個框架。

雷鋒網(wǎng)AI科技評論按:雖然CVPR 2017已經(jīng)落下帷幕,但對精彩論文的解讀還在繼續(xù)。下文是宜遠智能的首席科學(xué)家劉凱對此次大會收錄的《用于生物醫(yī)學(xué)圖像分析的精細調(diào)節(jié)卷積神經(jīng)網(wǎng)絡(luò):主動性&增量性》(Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively and Incrementally)一文進行的解讀。

文章介紹:

這篇主要針對醫(yī)學(xué)圖像處理領(lǐng)域標(biāo)注數(shù)據(jù)匱乏的問題,如何通過卷積神經(jīng)網(wǎng)絡(luò)(CNN)的Fine-tune和主動學(xué)習(xí)(Active Learning)來解決。使用CNN進行生物醫(yī)學(xué)圖像分析在最近幾年得到了比較多的關(guān)注,但面臨的一個問題是缺乏大量的標(biāo)注數(shù)據(jù),相比imagenet,對醫(yī)學(xué)圖像進行標(biāo)注需要大量的專業(yè)背景知識,為了節(jié)約標(biāo)注的成本和時間,這篇論文提供了一個新型的方法AIFT(Active,Incremental Fine-Tuning),把主動學(xué)習(xí)和遷移學(xué)習(xí)集成到一個框架。AIFT算法開始是直接使用一個預(yù)訓(xùn)練從未標(biāo)注數(shù)據(jù)里找一些比較值得標(biāo)注的樣本,然后模型持續(xù)的加入新標(biāo)注的數(shù)據(jù),一直做微調(diào)。

AIFT方法是在CAD(計算機輔助診斷)系統(tǒng)的環(huán)境下使用,CAD可以生成候選集U,都是未標(biāo)注數(shù)據(jù),其中每一個候選樣本(candidate)通過數(shù)據(jù)增強可以生成一系列的patches,由于這些patches來自于同一個候選樣本,所以它們的標(biāo)簽跟該候選樣本一致。

AIFT方法的主要創(chuàng)新點體現(xiàn)在如下幾個方面:

  • 持續(xù)性的fine-tuning

一開始標(biāo)注數(shù)據(jù)集L是空的,我們拿一個已經(jīng)訓(xùn)練好了的CNN(比如AlexNet),讓它在未標(biāo)注數(shù)據(jù)集U中選b個候選集來找醫(yī)生標(biāo)注,這新標(biāo)注的候選集將會放到標(biāo)注數(shù)據(jù)集L中,來持續(xù)的增量式fine-tune那個CNN直到合格,通過實驗發(fā)現(xiàn),持續(xù)的fine-tuning CNN相比在原始的預(yù)訓(xùn)練中重復(fù)性的fine-tuning CNN,可以讓數(shù)據(jù)集收斂更快。

  •  通過Active learning選擇候選樣本

主動學(xué)習(xí)的關(guān)鍵是找到一個標(biāo)準來評判候選樣本是否值得標(biāo)注,在當(dāng)前CNN中,一個候選樣本生成的所有patches都應(yīng)該是有差不多的預(yù)測。所以我們可以先通過這個CNN來對每個候選樣本的每個patch進行預(yù)測,然后對每個候選樣本,通過計算patch的熵和patch之間KL距離來衡量這個候選樣本。如果熵越高,說明包含更多的信息,如果KL距離越大,說明patch間的不一致性大,所以這兩個指標(biāo)越高,越有可能對當(dāng)前的CNN優(yōu)化越大。對每個矩陣都可以生成一個包含patch的KL距離和熵的鄰接矩陣R。

  • 通過少數(shù)服從多數(shù)來處理噪音

我們普遍都會使用一些自動的數(shù)據(jù)增強的方法,來提高CNN的表現(xiàn),但是不可避免的給某些候選樣本生成了一些難的樣本,給數(shù)據(jù)集注入了一些噪音。所以為了顯著的提高我們方法的魯棒性,我們依照于當(dāng)前CNN的預(yù)測,對每個候選樣本只選擇一部分的patch來計算熵和多樣性。首先對每個候選樣本的所有patch,計算平均的預(yù)測概率,如果平均概率大于0.5,我們只選擇概率最高的部分patch,如果概率小于0.5,選最低的部分patch,再基于已經(jīng)選擇的patch,來構(gòu)建得分矩陣R。

  • 預(yù)測出的結(jié)果有不同的模式

對每個候選樣本進行計算所有補丁的概率分布直方圖,對于概率的分布有以下幾種模式:

1、patch大部分集中在0.5,不確定性很高,大多數(shù)的主動學(xué)習(xí)算法都喜歡這種候選集。

2、比a還更好,預(yù)測從0-1分布均勻,導(dǎo)致了更高的不確定性,因為所有的patch都是通過同一個候選集數(shù)據(jù)增強得到,他們理論上應(yīng)該要有差不多的預(yù)測。這種類型的候選集有明顯優(yōu)化CNN模型的潛力。

3、預(yù)測分布聚集在兩端,導(dǎo)致了更高的多樣性,但是很有可能和patch的噪聲有關(guān),這是主動學(xué)習(xí)中最不喜歡的樣本,因為有可能在fine-tuning的時候迷惑CNN。

4、預(yù)測分布集中在一端(0或1),包含更高的確定性,這類數(shù)據(jù)的標(biāo)注優(yōu)先級要降低,因為當(dāng)前模型已經(jīng)能夠很好的預(yù)測它們了。

5、在某些補丁的預(yù)測中有更高的確定性,并且有些還和離群點有關(guān)聯(lián),這類候選集是有價值的,因為能夠平滑的改善CNN的表現(xiàn),盡管不能有顯著的貢獻,但對當(dāng)前CNN模型不會有任何傷害。

應(yīng)用的創(chuàng)新:

上述方法被應(yīng)用在了結(jié)腸鏡視頻幀分類和肺栓塞檢測上,得到了比較好的效果。前者只用了800個候選樣本就達到了最好的表現(xiàn),只用了5%的候選樣本就代表了剩下的候選樣本,因為連續(xù)的視頻幀通常都差不多。后者使用了1000個樣本就達到了AlexNet做Fine-tune使用2200個隨機樣本的效果。

該工作的主要優(yōu)勢包括如下幾點:

1、從一個完全未標(biāo)注的數(shù)據(jù)集開始,不需要初始的種子標(biāo)注數(shù)據(jù)。

2、通過持續(xù)的fine-tuning而不是重復(fù)的重新訓(xùn)練來一步一步改善學(xué)習(xí)器。

3、通過挖掘每一個候選樣本的補丁的一致性來選擇值得標(biāo)注的候選集。

4、自動處理噪音

5、只對每個候選集中小數(shù)量的補丁計算熵和KL距離,節(jié)約了計算。

總結(jié)下來,該工作提出的方法顯著的減低標(biāo)注的工作量,并且有指導(dǎo)的選擇哪些數(shù)據(jù)需要標(biāo)注,同時降低了數(shù)據(jù)增強帶來的噪聲影響。這個方向在醫(yī)學(xué)圖像處理領(lǐng)域有非常大的價值,相信會得到越來越多的關(guān)注。

論文地址:http://openaccess.thecvf.com/content_cvpr_2017/papers/Zhou_Fine-Tuning_Convolutional_Neural_CVPR_2017_paper.pdf

劉凱博士將于8月1日晚八點對CVPR2017收錄的Joint Sequence Learning and Cross-Modality Convolution for 3D Biomedical Segmentation一文進行直播講解,詳情請看下圖。

CVPR2017精彩論文解讀:用于生物醫(yī)學(xué)圖像分析的精細調(diào)節(jié)卷積神經(jīng)網(wǎng)絡(luò)



雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

CVPR2017精彩論文解讀:用于生物醫(yī)學(xué)圖像分析的精細調(diào)節(jié)卷積神經(jīng)網(wǎng)絡(luò)

分享:
相關(guān)文章

編輯

關(guān)注AI學(xué)術(shù),例如論文
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說