医学,像大多数领域一样,随着人工智能能力的迅速扩展而发生变革。AI集成可以成为医疗保健专业人士和研究人员的有用工具,包括在诊断影像的解释方面。放射科医生可以从X光片中识别骨折和其他异常,而AI模型可以看到人类无法看到的模式,从而有机会扩大医学影像的有效性。由达特茅斯健康研究人员领导,与佛蒙特州怀特河交汇处退伍军人事务医疗中心合作并在《自然·科学报告》上发表的一项研究,突显了在医学影像研究中使用AI的隐藏挑战。该研究检查了高度准确但可能具有误导性的结果——一种被称为“捷径学习”的现象。
“这些模型可以看到人类无法看到的模式,但并非所有它们识别的模式都有意义或可靠。认识到这些风险至关重要,以防止误导性结论并确保科学的完整性。”彼得·L·席林(Peter L. Schilling)博士说道。席林是达特茅斯健康达特茅斯-希区柯克医疗中心(DHMC)的骨科外科医生,也是该研究的资深作者。“虽然AI有潜力改变医学影像,但我们必须谨慎。”席林补充道,“这些模型可以看到人类无法看到的模式,但并非所有它们识别的模式都有意义或可靠。认识到这些风险至关重要,以防止误导性结论并确保科学的完整性。”
使用来自国家卫生研究院资助的骨关节炎倡议的膝关节X光片,研究人员展示了AI模型可以“预测”不相关且不可信的特征,例如患者是否不吃炖豆或不喝啤酒。尽管这些预测没有医学依据,但模型达到了令人惊讶的准确性水平,揭示了其利用数据中细微且意外模式的能力。
“这不仅仅是种族或性别线索带来的偏见,”DHMC的机器学习科学家、席林的合著者布兰登·G·希尔(Brandon G. Hill)说道,“我们发现算法甚至可以学会预测X光拍摄的年份。这是有害的;当你阻止它学习这些元素之一时,它会转而学习另一个之前忽略的元素。这种危险可能导致一些非常不靠谱的主张,研究人员需要意识到在使用这种技术时这种情况发生的容易程度。”
“当涉及到使用模型发现医学中的新模式时,证明责任大大增加,”希尔继续说道,“部分问题是我们的偏见。很容易陷入认为模型‘看到’的方式与我们相同这一陷阱。最终,它并不这样。几乎像是在处理一种外星智能。你想要说模型是在‘作弊’,但这将技术拟人化了。它找到了解决给定任务的方法,但不一定是人们会采用的方法。它没有我们通常理解的逻辑或推理能力。”
来源: 达特茅斯健康
13.12.2024
(全文结束)

