在周二于华盛顿特区举行的 NVIDIA 的 AI 峰会上,联邦医疗保健领域的领导们揭示了正在进行和未来的人工智能使用案例及政策,强调了预测软件对健康结果的益处。
与其他联邦机构一样,美国卫生与公众服务部(HHS)的卫生信息技术国家协调员兼代理首席人工智能官米奇·特里帕蒂(Micky Tripathi)表示,HHS 旨在推动和利用人工智能工具的持续创新,同时应用适当的防护措施,特别是在利用这些工具处理敏感的临床数据时。
特里帕蒂周二表示:“我们越来越多地听到人们对在医疗保健领域过度创新感到担忧,并希望有防护措施来适当引导这种创新。”
HHS 的各个组成部分,如国家卫生研究院、卫生高级研究项目局、疾病控制中心、医疗保险和医疗补助服务中心以及食品和药物管理局,已经发现了广泛的人工智能使用案例。
与其他机构一样,为 HHS 员工创建内部聊天机器人以筛选大量不同的数据是一个常见的使用案例,但特里帕蒂指出,像 Meta 的 Llama 和 OpenAI 的 ChatGPT 等主要商业参与者并未在临床数据上进行训练。
特里帕蒂表示,HHS 希望利用 HHS 和其他机构的大量临床数据来创建专门针对医疗保健用途的微调人工智能模型。
他说:“我们拥有惊人数量的临床数据;我们甚至还没有充分利用这些数据。我们如何以安全的方式开放这些数据,但提供在实际临床数据上使用这些技术的能力,以便我们在考虑诊断、减少医疗错误、简化临床决策以及让患者更直接地参与他们的护理时能够更加具体。”
在实现这些目标所面临的挑战方面,特里帕蒂指出,临床数据的质量将决定其在人工智能软件中的应用成败。
他说:“数据本身就受到我们当今医疗保健系统的偏见影响。所以那些今天被排除在医疗保健系统之外或因为保险少或根本没有保险而医疗条件差的人,这都反映在数据中,不幸的是,机器会捕捉到这一点。”
美国国立卫生研究院(NIH)数据科学与共享办公室副主任贝琳达·塞托(Belinda Seto)强调了强大的人工智能伦理视角的必要性。她补充说,当她的机构希望在处理和分析不同数据类型(如基因组研究和电子健康记录的数据)等任务领域利用人工智能时,在使用人工智能工具时创建一种道德文化至关重要。
塞托说:“当我们考虑医疗保健时,这是与护理提供者和患者之间的信任关系。如果我们能想办法确保信任不被破坏,并且在可能是临床决策支持的人工智能的可解释性方面,我们必须牢记不要破坏这种信任。”
塞托和特里帕蒂关于人工智能的评论正值该机构的战略人工智能计划(定于 2025 年 1 月发布)将评估人工智能在 HHS 任务领域中可以发挥的作用之际。
特里帕蒂说:“我们现在在每个主要领域都有一个战略计划在努力推进。它既关注外部,也关注内部。”

