新罕布什尔州黎巴嫩 — 医学和其他领域一样,随着人工智能能力的迅速发展而不断变革。AI集成可以成为医疗保健专业人员和研究人员的有用工具,包括在诊断影像解读方面。放射科医生可以从X光片中识别骨折和其他异常,而AI模型可以看到人类无法看到的模式,从而扩大医学影像的有效性。
由达特茅斯健康研究人员领导的一项研究,与佛蒙特州怀特河 junction 的退伍军人事务医疗中心合作,并发表在《自然科学研究报告》上,突显了在医疗影像研究中使用AI的隐藏挑战。该研究考察了高精度但可能具有误导性的结果——一种被称为“捷径学习”的现象。
利用来自美国国立卫生研究院资助的骨关节炎倡议的膝部X光片,研究人员展示了AI模型可以预测不相关且不合理的特征,例如患者是否不吃炒豆或啤酒。尽管这些预测没有医学依据,但模型达到了令人惊讶的准确性,揭示了其利用数据中微妙且无意的模式的能力。
“虽然AI有潜力改变医学影像,但我们必须谨慎,”达特茅斯健康达特茅斯希区柯克医疗中心(DHMC)的整形外科医生彼得·L·席林(Peter L. Schilling)博士说。“这些模型可以看到人类无法看到的模式,但并非所有它们识别的模式都是有意义或可靠的。认识到这些风险至关重要,以防止误导性结论并确保科学的完整性。”
席林和他的同事研究了AI算法如何依赖混淆变量——如X光设备的差异或临床站点标记——来做出预测,而不是基于医学上有意义的特征。试图消除这些偏差只取得了有限的成功——AI模型会继续学习其他隐藏的数据模式。
研究团队的发现强调了在基于AI的医学研究中需要严格的评估标准。过度依赖标准算法而缺乏深入审查可能导致错误的临床见解和治疗路径。
“这不仅仅是种族或性别线索带来的偏见,”达特茅斯健康达特茅斯希区柯克医疗中心的机器学习科学家布兰登·G·希尔(Brandon G. Hill)说。“我们发现算法甚至可以预测X光拍摄的年份。这是非常有害的;当你阻止它学习其中一个元素时,它会转而学习另一个之前被忽略的元素。这种危险可能导致一些非常可疑的说法,研究人员需要意识到使用这种技术时这种情况发生的容易程度。”
“在医学中使用模型发现新模式时,证据的负担大大增加,”希尔继续说道。“部分问题是我们的偏见。很容易陷入假设模型‘看到’的方式和我们相同。最终,它不是这样工作的。几乎像是在处理外星智能。你可能会说模型在‘作弊’,但这将技术拟人化了。它找到了解决给定任务的方法,但不一定像人那样。它没有我们通常理解的逻辑或推理。”
要阅读席林和希尔的研究——该研究的另一位作者是达特茅斯盖塞尔医学院三年级学生弗朗西丝·L·科贝克(Frances L. Koback)——请访问 bit.ly/4gox9jq。
(全文结束)

