科技日報訊 (記者羅雲鵬)1月14日,記者從中國科學院深圳先進技術研究院獲悉,該院醫學成像科學與技術系統全國重點實驗室研究員王珊珊等組成的聯合團隊提出了一種名爲AFLoc的人工智能模型,該模型不需要醫生提前標註病竈,就能自動在醫學影像中“找病竈”。相關成果日前發表於《自然·生物醫學工程》。
研究團隊介紹,他們讓AFLoc模型同時學習兩類信息。一類是醫學影像本身,如胸片、眼底照片或病理切片;另一類是醫生撰寫的臨牀報告。通過反覆對照學習,AFLoc模型會逐漸“明白”臨牀報告中提到的疾病描述,及其在影像中的對應區域。久而久之,即使沒有人工標註,模型也能在影像中準確標出最可能的病竈位置。
據悉,研究團隊在胸部X光、眼底影像和組織病理圖像三種典型醫學影像模態上對AFLoc進行了系統驗證,結果顯示模型均表現出優異性能。
在胸片實驗中,AFLoc在覆蓋肺炎、胸腔積液、氣胸等34種常見胸部疾病、涉及8個主流公開數據集的測試中,在多項病竈定位指標上優於現有方法,並在多個病種的定位中達到甚至超越人類專家的水平。在眼底影像和組織病理圖像任務中,AFLoc同樣展現出穩定的病竈定位能力,定位精度優於當前主流模型。
除病竈定位外,AFLoc還展現出強大的疾病診斷能力。在胸部X光、眼底影像和組織病理圖像的零樣本分類任務中,其整體表現均優於現有方法。尤其在眼底視網膜病變診斷中,AFLoc的零樣本分類性能甚至超越了部分依賴人工標註數據微調的模型。
“這一模型有效規避了傳統深度學習方法對大規模人工標註數據的依賴,顯著提升了醫學影像數據的利用效率與模型的泛化能力,爲臨牀影像人工智能從‘依賴手工標註’邁向‘自監督學習’提供了可行路徑,也爲構建更智能、更具通用性的醫學人工智能系統提供了新的技術範式。”王珊珊說。
據悉,研究團隊未來還將進一步推動AFLoc在多中心真實臨牀場景中的驗證與應用,加速其向臨牀輔助診斷系統的轉化落地。