0
雷鋒網按:據 VentureBeat 報道,Google AI 利用人工智能系統,借助數千個帶有高質量標簽的數據庫,精準解讀胸部 X 射線圖像。論文已發(fā)表在《自然》雜志。
【圖片來源:VentureBeat 所有者:VentureBeat】
近年來,Google AI 不斷將目光投向醫(yī)療領域。去年,紐約大學利用 Google 的 Inception v3 機器學習模型檢測出肺癌。今年 5 月,Google AI 和美國西北大學醫(yī)學院的科學家們創(chuàng)建模型,通過篩查檢測出肺癌,水平超過了有 8 年經驗的放射科醫(yī)生。
此外,Google AI 曾通過眼部掃描,診斷糖尿病視網膜病變的進展;Alphabet 子公司 DeepMind 的 AI 曾為 50 種眼部疾病推薦合適的治療方案,準確率高達 94%。
那么,胸部 X 射線圖像解讀是否也可以與人工智能相結合?
實際上,用機器學習算法分析胸部 X 射線圖像,說起來容易做起來難。這是由于在通常情況下,訓練算法所需的臨床標簽,是通過基于規(guī)則的自然語言處理或人工注釋獲得的,兩者往往不一致,且錯誤較多。同時,僅以圖像為依據,很難收集包含大量病例的數據庫,并建立一致的、具有臨床意義的標簽。
近日,為推進 X 射線圖像分類的目標,Google 的研究人員發(fā)現,利用人工智能模型分析胸部 X 射線圖像,可檢測四項指標:氣胸(肺萎陷)、結節(jié)和腫塊、骨折和氣腔模糊(樹芽征)。在一篇發(fā)表在《自然》(Nature)雜志的論文中,研究小組稱,經專家獨立審查,這一模型已達到放射科醫(yī)生的水平。
這項最新研究,利用了來自兩個反識別數據庫的 60 多萬張圖像。其一是與印度阿波羅醫(yī)院合作開發(fā)的數據庫,包含多年來從各地收集到的 X 射線。其二是由美國國立衛(wèi)生研究院發(fā)布的 ChestX-ray14 公開圖像庫,該圖像庫曾為人工智能研究提供支持,但在準確性方面存在不足。
縱觀整個研究,首先,研究人員開發(fā)了一個基于文本的系統,提取每張 X 光片的放射學報告并加以運用,為阿波羅醫(yī)院數據庫中超過 56 萬幅圖像提供標簽。為了減少基于文本的標簽提取過程中可能出現的錯誤,并為若干 ChestX-ray14 圖像提供相關標簽,他們專門招募放射科醫(yī)生,檢查這兩個數據庫中的約 3.7 萬幅圖像。
下一步是生成用于模型評估的高質量參考標簽。三名放射科醫(yī)生通過小組合作的形式,審查所有結果,測試數據庫圖像,并在線討論解決相互之間的分歧。這項研究的合著者也表示,通過這種方式,原先只能通過放射科醫(yī)生檢測到的結果,也能被準確地識別并記錄下來。
Google 指出,盡管這些模型的準確性總體上達到了專家水平,但各個數據庫的結果卻各不相同。例如,對于 ChestX-ray14 圖像,同一放射科醫(yī)生檢測氣胸的靈敏度約為 79%,但對于其他數據庫,檢測氣胸的靈敏度僅有 52%。
Google 科學家 David Steiner 博士和 Google Health 技術負責人 Shravya Shetty 均為該論文做了貢獻,兩人在一篇博客中提到:
數據庫之間的差異,證明了建立具有明確參考指標的標準化評估圖像庫的必要性,方便在不同研究之間進行比較。但同時,將人工智能和放射科醫(yī)生各自的優(yōu)勢相結合,很可能是人工智能應用于醫(yī)學圖像解讀的最佳方式。
研究小組已經在開源中創(chuàng)建了 ChestX-ray14 數據庫,數據庫包含 2412 個訓練、驗證集圖像,1962 個測試集圖像,總共 4374 個圖像。David Steiner 和 Shravya Shetty 表示,他們希望通過 ChestX-ray14 數據庫的判定標簽,為以后的機器學習奠定基礎,并推動機器學習模型之間的比較,從而更精準地解讀胸部 X 射線圖像。
雷鋒網年度評選——尋找19大行業(yè)的最佳AI落地實踐
創(chuàng)立于2017年的「AI最佳掘金案例年度榜單」,是業(yè)內首個人工智能商業(yè)案例評選活動。雷鋒網從商用維度出發(fā),尋找人工智能在各個行業(yè)的最佳落地實踐。
第三屆評選已正式啟動,關注微信公眾號“雷鋒網”,回復關鍵詞“榜單”參與報名。詳情可咨詢微信號:xqxq_xq
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。