人工智能可以成为医疗专业人员和研究人员解读诊断图像的有力工具。放射科医生可以从X光片中识别骨折和其他异常情况,而AI模型可以看到人类无法察觉的模式,从而扩大医学影像的有效性。
然而,《科学报告》(Scientific Reports)上的一项研究表明,在医疗影像研究中使用AI存在一个隐藏的挑战——即“捷径学习”现象,这种现象会导致高度准确但可能具有误导性的结果。
研究人员分析了超过25,000张膝部X光片,发现AI模型可以“预测”与医学无关且不合理的特征,例如患者是否避免食用炖豆或啤酒。尽管这些预测没有医学依据,但模型通过利用数据中的微妙和无意模式达到了令人惊讶的准确性水平。
“虽然AI有潜力改变医学影像,但我们必须谨慎。”该研究的高级作者彼得·席林博士(Dr. Peter Schilling)表示。他是达特茅斯健康中心(Dartmouth Hitchcock Medical Center)的骨科医生,也是达特茅斯盖塞尔医学院(Geisel School of Medicine)的骨科助理教授。“这些模型可以看到人类无法看到的模式,但并非所有它们识别的模式都是有意义或可靠的。认识到这些风险至关重要,以防止得出误导性结论并确保科学的完整性。”
研究人员还考察了AI算法如何依赖混淆变量(如X光设备的差异或临床站点标记)来做出预测,而不是基于医学上有意义的特征。试图消除这些偏差的努力仅取得有限成功——AI模型会继续“学习”其他隐藏的数据模式。
“这不仅仅是来自种族或性别线索的偏见。”该研究的合著者布兰登·希尔(Brandon Hill)说,他是一名在达特茅斯希区柯克工作的机器学习科学家。“我们发现算法甚至可以预测X光片拍摄的年份。这是非常顽固的——当你阻止它学习其中一个元素时,它会转而学习另一个之前被忽略的元素。这种危险可能导致一些非常错误的主张,研究人员需要意识到在使用这种技术时这种情况是多么容易发生。”
这些发现强调了在基于AI的医疗研究中需要严格的评估标准。过度依赖标准算法而不进行深入审查可能导致错误的临床见解和治疗路径。
“当涉及到使用模型发现医学中的新模式时,证明的负担大大增加。”希尔说。“部分问题是我们的偏见。很容易陷入认为模型‘看到’的方式和我们相同。最终,它并不是这样。”
席林、希尔和研究的另一位合著者弗朗西丝·科贝克(Frances Koback)——达特茅斯盖塞尔医学院的三年级医学生——与位于佛蒙特州怀特河连接处的退伍军人事务医疗中心合作进行了这项研究。
更多信息: Ravi Aggarwal等人,《深度学习在医学影像诊断中的准确性:系统回顾和荟萃分析》,《npj数字医学》(2021)。DOI: 10.1038/s41746-021-00438-z
期刊信息: npj数字医学,科学报告
提供:达特茅斯学院
引用: AI认为膝部X光片能显示你是否喝过啤酒——其实不能(2024年12月11日),于2024年12月12日从 获取
(全文结束)

