MIT 研究:醫療AI診斷應更具協作性,主動揭示不確定性以建立醫師信任

MIT-led team designs AI systems for medical diagnosis that are more collaborative and forthcoming about uncertainty

麻省理工學院(MIT)主導的研究團隊於近日發表最新研究成果,呼籲重新思考 AI 在醫療診斷中的角色——AI 不應只是一個「工具」,而應成為醫師的真正協作夥伴(collaborator),並且需要更主動地表達自身的不確定性

研究背景:當前 AI 診斷的盲點

儘管大型語言模型在多項醫學測試中已展現出接近專家的診斷水準,但大多數臨床 AI 系統仍以「提供答案」為主要模式,缺乏對不確定案例的透明溝通。研究者指出,當 AI 對自身判斷過度自信,醫師反而容易過度依賴,在邊緣案例中做出錯誤決策。

創新設計:雙向協作診斷流程

研究團隊設計了一套新型工作流程:在開始診斷前,臨床醫師與 AI 系統分別獨立作出初步判斷,之後 AI 生成一份整合性分析報告,清楚呈現雙方的共識、分歧之處,並附上推理說明。

發表於 npj Digital Medicine 的隨機對照試驗(70名臨床醫師參與)顯示,不論 AI 作為「先意見」(醫師之前)或「後意見」(醫師之後),協作式工作流程都能顯著提升診斷準確率,優於使用傳統醫療參考資源的對照組。

不確定性透明度的重要性

研究者強調,讓醫師看到 AI 的不確定性至關重要:「即使只是讓醫師看到醫療影像中存在不確定性,也能影響他們的決策過程。」這種設計理念有助於在 AI 輔助診斷中維持醫師的主體判斷地位,同時善用AI的計算優勢。此研究為未來負責任的醫療AI系統設計提供了重要參考框架。