退伍军人事务部监察机构警告称,该机构医疗人员使用的聊天工具存在“患者风险”,包括医疗记录中的隐私泄露和错误信息问题。陆军摄影师Thomas Calvert一级军士拍摄的照片显示,退伍军人事务部内部监察机构于本周四发布紧急通告,指出当前医疗提供者使用的两款AI聊天工具存在“潜在患者安全风险”。
医生并未使用人工智能进行患者诊断,但监察长办公室发现,当医生利用人工智能分析医疗信息并更新患者记录时,某些情况下可能产生问题。通告指出,这些系统可能产生错误信息、侵犯隐私并存在算法偏见,且系统部署前未经过退伍军人事务部患者安全专家的审查。
退伍军人事务部发言人Pete Kasperowicz在回应通告时表示:“VA临床医生仅将人工智能作为辅助工具使用,患者护理的决策始终由适当的VA工作人员作出。”
前退伍军人事务部自杀预防执行主任Matthew Miller博士向Task & Purpose表示,这份备忘录显然具有紧迫性。“这是监察长办公室发布的正式通告,基于感知到的患者安全问题,建议‘立即暂停’正在审查中的AI工具使用。监察长办公室在审查中发现,适当的过程导向安全措施可能尚未到位。”
曾在2017至2018年担任退伍军人事务部部长、现任医疗科技咨询顾问的David Shulkin博士认为,该报告不应被视为“要求退伍军人事务部停止或放缓当前工作”的依据。“我认为退伍军人应当知晓VA为他们提供最先进、最可靠的医疗技术,因此不应以此为理由回避人工智能。但我确实认为这份报告恰当地指出,我们仍需加强工作以确保技术被恰当使用,并将患者安全作为退伍军人服务的最高优先事项。”
两款聊天机器人缺乏监管
该通告以初步结果通告备忘录(PRAM)形式发布,仅两页篇幅,未包含患者安全受威胁的具体案例。备忘录显示,VA医疗提供者目前可使用两款AI聊天系统辅助患者护理:VA GPT和微软365 Copilot Chat。这两款基于大语言模型(LLM)的系统旨在简化患者护理记录流程、减少时间消耗。医生将患者的临床信息输入聊天工具,生成内容可复制到退伍军人电子健康记录中,“用于支持医疗决策”。
但监察长办公室援引研究指出,使用患者医疗数据的大语言模型在1%至3%的案例中可能引入错误或遗漏正确数据。联邦调查人员表示,若生成式AI工具产生错误或缺失数据,“可能影响诊断和治疗决策”,该结论基于TORTUS AI研究人员与英国国家医疗服务体系信托基金会2025年5月开展的医疗文档用LLM风险研究。
研究报告指出,用于总结医疗文档的大语言模型可能产生“幻觉”错误——即生成原始数据中不存在的信息或完全遗漏用户输入的关键内容。“临床文档生成中的错误会导致事实记录与传递不准确。文档摘要任务中的不准确可能将误导性细节引入转录对话或摘要,潜在延缓诊断并引发患者不必要的焦虑。”
降低“职业倦怠”的目标
研究同时发现,人工智能可能帮助长期困于文书工作的临床医生减轻“认知负荷”,从而“预防职业倦怠”。其他研究也指出类似益处:AI可为医生节省与患者相处的时间,并将复杂医学语言转化为患者易懂的指导说明。作为生成式AI试点工具推出的VA GPT在2025年9月拥有近10万名用户,预计每周为每位用户节省2至3小时。
监察长办公室通过访谈发现,退伍军人事务部在部署这些AI聊天工具前,未与机构国家患者安全中心协作,也未建立正式机制来识别或修复生成式AI工具使用中产生的风险。该机构对患者安全中心的问询未获即时回应。
通告指出:“缺乏流程机制将阻碍反馈循环的建立,无法检测可能提升临床环境中AI聊天工具安全与质量的规律模式。”越战退伍军人美国协会政府事务执行主任James McCormick表示,该组织尚未收到成员关于VA中AI资源的投诉或问题。“然而,若确实存在危及成员风险的问题,我们当然支持深入调查这些工具以进行整改完善,确保退伍军人群体获得最高质量的护理与服务。”
【全文结束】

