0
雷鋒網(wǎng) AI 研習社按,日前,由生物醫(yī)學成像領域頂級學術會議 ISBI((IEEE International Symposium on Biomedical Imaging)舉辦的 IDRiD 眼底圖分析競賽成績揭曉。從排行榜上可以看到,來自中國的研究機構表現(xiàn)相當亮眼——科大訊飛「iFLYTEK-MIG」團隊在病灶分割比賽的 MA(微動脈瘤)子項目上排名第一,平安科技「PATech」團隊在病灶分割比賽的 EX(硬滲出)子項目上排名第一。
浙江大學、新加坡國立大學、新加坡生物信息學研究所聯(lián)合北京上工醫(yī)信公司組成的團隊在視神經(jīng)盤與中央凹檢測比賽上得分領先。
此次眼底圖分析競賽共分為病灶分割、疾病分級、視神經(jīng)盤與中央凹檢測三個分賽道,病灶分割比賽中包括微動脈瘤(MA)、出血點(HE)、軟滲出(SE)、硬滲出(EX)四個子項目,訊飛「iFLYTEK-MIG」團隊在病灶分割的四個指標 MA/HE/SE/EX 上的得分排名分別為 1/3/3/2,雷鋒網(wǎng) AI 研習社第一時間聯(lián)系到「iFLYTEK-MIG」團隊,了解到這一優(yōu)秀成績背后的個中細節(jié),同時,也獲悉訊飛在醫(yī)療圖像領域取得的突破與進展。
圖:眼底圖四種病灶示意圖(via:科大訊飛)
比賽細節(jié)
在病灶分割、疾病分級、視神經(jīng)盤與中央凹檢測這三個分賽道上,排名領先的科大訊飛和平安科技都只是選擇參加第一項賽事而忽略了后兩項,「iFLYTEK-MIG」團隊對 AI 研習社解釋道,「其他幾項比賽對醫(yī)生的輔助意義并不是很大,不能很好地提升醫(yī)生的工作效率與準確率。」
iFLYTEK-MIG 團隊主要來自科大訊飛 AI 研究院,研究方向是人工智能在醫(yī)學影像領域的技術及應用?;趯I(yè)知識和實地考察經(jīng)驗,他們表示,病灶分割可以給醫(yī)生帶來極大的利好?!肝覀冊诒荣愔袡z測的微動脈瘤(MA)實際上是非常之小的,在一張 4000x3000 像素的圖上,MA 可能只占 10x10 個像素左右,很容易被醫(yī)生遺漏。根據(jù)我們的調研,高水平的醫(yī)生看一份眼底圖找到一個 MA 可能要耗費 4 到 5 分鐘,目前我們的系統(tǒng)只需要幾秒鐘,而且速度還有優(yōu)化空間,可以大幅提高醫(yī)生的工作效率?!?/p>
提到參賽初衷,他們對雷鋒網(wǎng)表示,對于訊飛來說,眼底圖是之前一直沒有嘗試過的病種,也是計劃馬上要做的。在機緣巧合之下,看到 ISBI 在舉辦 IDRiD 這樣一個國際比賽,所以馬上選擇投入?yún)⒓印?/p>
在該比賽中,官方提供的數(shù)據(jù)集只有 516 張圖像,雖然主辦方表示可以使用其他外部數(shù)據(jù),但 iFLYTEK-MIG 團隊并沒有這樣做?!肝覀儏⒓颖荣惖哪康闹饕球炞C已有算法的有效性,是否能達到比較好的效果。眼底的疾病,不論是糖尿病視網(wǎng)膜病變,還是其他一些相關疾病,都是通過對病灶進行分割、檢測來做輔助診斷。」
他們在這個數(shù)據(jù)集上大概投入了一個月時間,基于已有的算法進行設計改進。比賽中,算法的有效性得到了充分證明?!肝磥恚讷@取更多數(shù)據(jù)后,醫(yī)學影像輔助診斷系統(tǒng)的準確度可達到更高水平?!?/p>
而這場比賽的難點在哪里?訊飛表示,「與自然場景圖像不同,眼底圖像的分辨率一般在 4000*3000 像素左右,而有些小的 MA 病灶可能僅占有幾十個像素,而且不同病灶的面積往往相差很大,因此會導致正負樣本比例失衡、檢出特異性(specificity)較低等問題。」
針對以上難點,他們基于 coarse-to-fine 思想做了如下改進:
在 Encoder-Decoder 框架下融合空洞卷積操作、self-attention 機制,設計出一種新的分割網(wǎng)絡,在不損失原始圖像信息的前提下,快速定位出可疑病灶區(qū)域并給出分割邊界。
新增了一個虛警抑制網(wǎng)絡以及矯正網(wǎng)絡,提高靈敏度和特異性。
與 LUNA 評測的區(qū)別
值得一提的是,半年前,訊飛在 LUNA 上獲得平均召回率 94.1% 的檢測效果,刷新世界紀錄。LUNA (LUng Nodule Analysis) 評測是肺結節(jié)檢測領域最權威的國際評測,也是醫(yī)學影像領域最具代表性、最受關注的評測任務之一。召回率低意味著系統(tǒng)會漏掉患者的關鍵病灶信息,對患者的健康造成很大隱患。
當時,為了提升召回率,訊飛主要采用了如下幾種方法:
多尺度、多模型集成學習;
使用結節(jié)分割和特征圖融合的策略來改善虛警的增多和重復檢測問題;
利用 fully 3D-CNN 模型來計算特征圖,并在特征圖上進行檢測;
提出一種有效樣本挖掘策略,能夠通過在線學習過程自動過濾可疑錯誤樣本。
而這種對肺結節(jié)檢測的方案中,有無可以遷移到這次的眼底檢測比賽中的技術?訊飛表示,LUNA 中的肺部 CT 是三維數(shù)據(jù),那時候的方法是基于 3D-CNN。參加 LUNA 前他們已經(jīng)有了肺結節(jié)方面的輔助診斷系統(tǒng),所以那次是直接應用。這次的眼底圖像比賽是二維圖像,算法上會有比較大差別,具體到任務上,實現(xiàn)原理也有所不同。
他們表示:「這對訊飛來說是一個從無到有的過程?!?br/> 后續(xù),他們在比賽中采用的算法會發(fā)表在相關領域頂級期刊上,促進行業(yè)的共同進步?!杆惴ǖ男Ч靶识急容^優(yōu)異,我們覺得對行業(yè)發(fā)展還是能起到一些激勵作用。如果只給醫(yī)生一個『黑盒子』的結果,那樣很難讓他們信服。」
實用性考慮
其實早在 2016 年底,谷歌就利用深度學習診斷糖尿病視網(wǎng)膜病變,并號稱取得了與專業(yè)醫(yī)生相媲美的成果。他們當時使用使用 Inception-v3 網(wǎng)絡,利用 12.8 萬幅圖片組成的數(shù)據(jù)集來訓練算法。而在 2018 年初,Google 旗下的 DeepMind 宣布訓練出了一種 AI 醫(yī)學影像算法,號稱可以比人類醫(yī)生更加高效準確地檢查出眼底疾病。他們與 NHS 和全球最好的眼科醫(yī)院之一——倫敦 Moorfields 眼科醫(yī)院,進行了長達兩年的合作,來驗證這項算法的有效性。
目前,訊飛醫(yī)學影像輔助診斷系統(tǒng)已在全國幫助近百家醫(yī)院進行肺結節(jié)和乳腺鉬靶的影像篩查,那么他們這一眼底圖診療算法還有多久投入實用?他們表示,「在這次算法的有效性被充分驗證之后,下一步,我們會確定合作醫(yī)院和科室,對系統(tǒng)進行進一步的研究?!?/p>
目前來說,國內主要的問題是醫(yī)療影像數(shù)據(jù)缺乏統(tǒng)一標準。訊飛在臨床上做的許多試點工作中經(jīng)常會碰到如下難題:基于一家醫(yī)院數(shù)據(jù)學習到的系統(tǒng)遷移到另一家醫(yī)院時,系統(tǒng)的效果會有比較大的折扣?!敢驗閲鴥雀麽t(yī)院的影像設備技師在操作過程中,基本都是按照自己醫(yī)院的小標準去做的;不同影像設備之間也會有所差異,這些差異對于影像科醫(yī)生來說,花一些時間便可以適應,但對于機器來說,由于它依賴數(shù)值計算,所以數(shù)值上的很大差異會對機器造成不利的影響,因此機器也需要一次再學習的適應過程,這是很不利于系統(tǒng)推廣的。」
目前,為了切實推進醫(yī)療影像數(shù)據(jù)的標準化,他們還在根據(jù)不同的醫(yī)院需求去一家家修改系統(tǒng)。
實用的道路是曲折的,他們補充道,進一步改進該眼底圖像診斷系統(tǒng)之后,具體應用將在年內落實。
競賽詳細信息:https://idrid.grand-challenge.org/home/
(完)
ISBI:ISBI 是由 IEEE 信號處理協(xié)會 (SPS) 和 IEEE 生物醫(yī)學工程協(xié)會 (EMBS) 共同發(fā)起的專門研究生物醫(yī)學成像的國際學術會議。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。