今年,《MedPage Today》报道了医疗保健中人工智能(AI)领域的诸多进展。在这份报告中,我们探讨了新的一年里医疗保健AI的发展方向。
11月,FDA新成立的一个顾问委员会召开了一次为期两天的会议,讨论有关生成式AI驱动的医疗器械的指导方针。数字健康顾问委员会提倡建立一种监管方法,重点关注上市前性能评估、风险管理以及这些设备上市后的持续性能监控。
然而,该委员会并未提出具体建议,暗示医疗保健AI的监管变化短期内不会发生。“我最近听到更多来自监管界的谨慎和深思熟虑的声音,”健康AI联盟(CHAI)首席执行官Brian Anderson博士告诉《MedPage Today》,他补充说,“如果在不了解私营部门创新者走向的情况下制定一个健全的监管流程,那就是本末倒置。”
展望未来一年,Anderson预测,医疗保健AI公司将继续与医疗系统和研究人员合作,制定最佳实践并确定负责任的AI应如何运作的共同定义。其中一项重要工作是开发更成熟和复杂的AI工具,为医疗系统提供明确、有针对性的结果,Anderson表示。医疗系统还将改进验证和验证AI工具的过程,包括要求提供更多关于AI系统设计和构建的信息。
Anderson指出,医疗系统越来越要求明确的投资回报——对其投资于这些AI工具的资本有可衡量的经济回报。此外,他还提到,医疗系统对AI治理的兴趣日益浓厚,特别是监测和防止这些工具中的偏见、模型错位和漂移。Anderson指出,许多医疗系统面临的挑战之一将是找到合适的人和流程来最好地理解这些问题,以便雇佣AI公司并实施这些工具。
Anderson认为,这可能成为2025年医疗保健AI领域的主要矛盾。医疗系统可能在实施前要求更多关于AI模型的信息和控制,而AI公司则希望继续保护其知识产权。“从高层次来看,你会看到医疗系统在部署后监控阶段和采购阶段对更大透明度的需求,”Anderson说。没有这些控制措施,“就像拥有一把手术刀,却不知道它是生锈的,无法很好地切割,也无法对此做任何事情。”
值得注意的是,CHAI一直在与数百个组织合作,包括AI公司和医疗系统,以制定标准方法,促进这些合作关系。Anderson表示,该组织将继续努力为医疗环境中AI工具的开发、实施和使用创建更多指南。
尽管Anderson和CHAI看到了2025年医疗保健AI进一步改进的潜力,但像紧急护理研究所(ECRI)这样的其他组织仍然关注其风险。在ECRI最近发布的2025年十大健康相关技术危害名单中,AI驱动的健康技术位列首位。“人工智能的能力前景不应使我们忽视其风险或其对患者和提供者的伤害能力,”ECRI总裁兼首席执行官Marcus Schabacker博士在一份新闻稿中说。“在AI的隐私和安全之间取得平衡将是现代医学中最困难也是最具决定性的任务之一。”
尽管存在这些担忧,约翰霍普金斯大学巴尔的摩分校AI、机器学习和医疗保健实验室主任Suchi Saria博士表示,临床环境中AI的进一步采用可能会定义新的一年。Saria还是健康AI联盟董事会成员,她表示过去一年在利用AI实现临床和运营效率方面取得了巨大进步。
“2025年,你将看到AI在临床领域中的应用更加成熟,以提高工作效率和倡导,”她在接受《MedPage Today》采访时说。“我们今天的许多工作流程都是在电子病历和AI时代之前建立的……有很多低效的地方。”她相信现在有更多的开放性,医生和医疗系统愿意使用AI工具来改善临床工作流程,并预计明年在这方面会有进一步的变化。
Anderson表示,他希望新的一年能证明医疗保健AI可以发展成为一种成熟的工具,最终改变医疗服务的提供方式。“在90年代,我们谈论过这一宏伟愿景——学习型医疗系统,”Anderson说。“我认为我们很多人都会同意,我们尚未实现这一愿景。我希望2025年能看到AI让我们比以往任何时候都更接近这个愿景。”
(全文结束)

