为了平衡创新与患者安全,美国食品药品监督管理局(FDA)需要一个灵活、透明且伦理驱动的监管系统来管理人工智能驱动的医疗技术。这是麻省理工学院的Leo Celi及其同事在本周发表于开放获取期刊《PLOS数字健康》上的一份新报告中的结论。
人工智能正在成为医疗保健领域的一股强大力量,帮助医生诊断疾病、监测患者,甚至推荐治疗方法。与传统医疗器械不同,许多AI工具在获得批准后仍会继续学习和变化,这意味着它们的行为在使用过程中可能会以不可预测的方式发生变化。
在这篇新论文中,Celi和他的同事们认为,FDA当前的系统无法有效监控这些获批后的变化。他们的分析呼吁加强透明度和偏见方面的规定,特别是为了保护弱势群体。如果一种算法主要基于某一人群的数据进行训练,那么在应用于其他人群时可能会出现错误。
作者建议,开发者应被要求分享其AI模型的训练和测试信息,并且FDA应更多地直接让患者和社区倡导者参与决策过程。
他们还提出了一些实际的解决方案,包括创建公共数据存储库来跟踪AI在实际应用中的表现,为遵循伦理实践的公司提供税收激励,以及培训医学生批判性评估AI工具。
“这项工作有可能通过促使FDA重新考虑现有的针对AI赋能医疗技术的监管机制来产生实际影响。我们倡导以患者为中心、风险意识强且不断适应的监管方法——这样可以确保AI在临床实践中仍然是一个有价值的工具,同时不损害安全性或加剧医疗保健差异。”作者表示。
更多信息:《安全的幻觉:关于FDA对AI医疗产品批准的报告》,《PLOS数字健康》(2025)。DOI: 10.1371/journal.pdig.0000866
(全文结束)

