美国各地的医疗系统正在推出新的人工智能(AI)聊天机器人,帮助患者更快地提出医疗问题和预约就诊,尽管医生们对这一举措存在分歧。
一些人认为患者能够使用以临床为重点的AI平台提问具有积极意义,而另一些人则警告必须维持严格标准以限制潜在风险。
Hartford HealthCare最近为其康涅狄格州的患者推出了Patient GPT,这是由临床AI公司K Health创建的聊天机器人;而总部位于加利福尼亚的Sutter Health和为印第安纳州与俄亥俄州提供服务的Reid Health则推出了Emmie,这是由医疗软件公司Epic开发的聊天机器人。
根据盖洛普民意调查,约25%的美国人曾使用AI工具或聊天机器人获取健康信息或建议,主要作为其护理的补充工具;而根据OpenAI今年1月的报告,在"服务不足的农村社区"的用户平均每周发送近60万条医疗信息。
与此同时,美国医院的等待时间正在恶化。AMN Healthcare 2025年的一份报告显示,患者现在通常需要平均等待一个月才能看医生,比2022年增加了19%。
随着对快速、便捷健康指导需求的增长,OpenAI表示将推出其专用健康机器人ChatGPT Health,现已集成到ChatGPT中;如今医院也纷纷采用这项技术,转而使用专为临床环境设计的内部AI工具。
新型临床AI聊天机器人如何工作
Epic研发总监Trevor Berceau告诉《新闻周刊》,由Sutter Health和Reid Health推出的Emmie是一款集成在Epic安全患者门户MyChart中的AI助手,旨在"帮助患者理解和管理他们的护理"。
他表示,Emmie解决了数百万美国人使用商业AI聊天机器人回答医疗问题时遇到的几个挑战,例如回复中未考虑其医疗史,以及对AI公司可能如何使用其医疗数据的担忧。
Berceau表示,由于Emmie与患者的医疗记录集成,其回答"会考虑患者的病史"。这也意味着患者分享的信息受到《健康保险可携性和责任法案》(HIPAA)的保护,这是一项以严格隐私和安全标准保护个人医疗信息的联邦法律。
Sutter Health首席数字官Laura Wilt表示,因此患者将能够获得"针对他们及其健康状况在Emmie中的特定答案",而非其他商业AI助手。
Berceau表示,Emmie主要用于实验室结果和咨询后问题、一般健康咨询和建议请求。尽管他补充说,与其他任何AI工具一样,"人们不应仅基于Emmie的输出做出治疗决定"。
他表示:"Emmie的作用是帮助他们更好地理解自己的健康状况,以便他们能够为与护理人员的知情讨论做好准备。"
缩短预约等待时间
K Health首席执行官Allon Bloch告诉《新闻周刊》,Patient GPT也能访问患者的医疗记录。《新闻周刊》分享的一个平台演示视频显示,它允许患者建立包含其药物、近期测试结果和医疗史的个人资料,这些内容分列在不同部分。
Bloch还表示,该平台使患者能够24/7全天候在线预约医生。他说,根据需求,患者如果愿意,可以在最短15分钟内获得预约,或者更容易在晚上或临床时间之外获得预约。
他表示,之所以可能实现这一点,是因为"我们为医生做了很多工作",因为该平台可以收集患者问题并从其医疗记录中提取信息,使医生更容易审查他们的健康问题。
他说:"医生可能需要20分钟才能浏览完一份医疗记录,更不用说进行医疗问诊了。现在所有信息都已准备就绪,可供医生使用。"
他补充说,他认为这是一个"全球性机遇",因为该技术有能力简化全球医疗行业面临的问题,如协调患者文件、预约和处方。
Hartford Healthcare Medical Group总裁Padmanabhan Premkumar博士告诉《新闻周刊》,"与可能缺乏临床背景或明确终点的一般聊天机器人不同,我们的平台设计有结构化的临床路径",这些路径意味着聊天机器人能在"安全生态系统"中理解患者特定的医疗史,以便"在需要时将他们分诊至医生预约或适当的临床资源"。
医院称早期反馈积极
Premkumar表示,虽然该系统仍处于早期阶段,但他们已经收到一些反馈,表明患者"重视增加的可访问性以及简化复杂医疗导航的能力"。
Hartford HealthCare执行副总裁兼首席临床官Ajay Kumar博士告诉《新闻周刊》:"我亲自使用了该平台,发现它非常有益,甚至向我的家人推荐过。"
他表示,他相信如果隐私和HIPAA标准得到充分遵守,Patient GPT可以"为患者增加重要价值"。
他说:"在负责任和安全地实施的情况下,AI可以帮助患者更好地理解他们的医疗信息并引导他们获得适当的护理。在这些条件下,我支持这种创新。"
隐私和"幻觉"问题如何解决?
根据一些民调,美国人对AI越来越持怀疑态度,超过一半的人口担心该技术传播误导性内容和信息的风险。在医疗领域,误导性医疗信息可能产生严重后果,特别是如果患者在寻求建议时选择不与医生交谈。
当被问及这些潜在担忧时,K Health首席执行官Bloch表示,重要的是要记住,即使是"医生也会犯医疗错误",而且"我们谈论的不是一个零错误的系统",但如果患者无法获得高质量的医疗信息,或因等待时间过长而避免向医生咨询问题,这种结果可能会"糟糕得多"。
Berceau表示,在Epic,"我们在提示和上下文工程方面投入了大量精力以获得准确的输出",公司拥有"强大的自动化测试套件,可运行这些测试的数千种排列组合"。他说,这些措施使他们能够"每天监控和验证Emmie的输出,并避免可能影响准确性的模型漂移等问题"。
关于潜在的数据隐私问题,他补充说,HIPAA的规定保护了患者与Emmie分享的信息,因为根据该法律,医疗系统有责任保护患者信息的安全,"就像他们对其他医疗记录所做的那样",这使其区别于消费者聊天机器人。
Kumar承认,如果"强有力的治理和适当的安全措施没有到位",这些聊天机器人被用于回答医疗问题将"令人担忧"。
他说:"然而,我们的方法需要通过既定的研究协议进行严格分析,以及由多学科AI治理结构进行监督。这使我确信风险得到了仔细评估和管理。"
医生们怎么看
医生们似乎对这是否是医疗行业的积极进展,或者是否引发担忧存在分歧。
斯坦福大学医学教授Nigam Shah告诉《新闻周刊》,他认为这对医疗行业来说是一个"净积极"的举措。
他说:"当诊所关闭时,护理需求并不会停止,急诊室并不是许多护理需求最合适的场所。"他补充说,这些工具"弥合了紧急护理关闭与第二天诊所开门之间的差距。"
尽管他表示这些工具"并不完美且会出错",并且需要提出问题:这些工具将如何得到有效监控。
约翰霍普金斯大学计算机科学和健康政策教授Suchi Saria告诉《新闻周刊》,同样重要的是这些工具所遵循的标准。
她说:"同样的技术可能有意义地改善护理,也可能悄无声息地引入风险,这取决于它被构建、验证和监控的严格程度。在医疗领域,问题不在于错误是否发生,而在于在造成伤害之前,这些错误被发现和纠正的速度有多快。"
这意味着监控尤为重要,Saria表示"我们需要摆脱患者面向的AI可以在较轻标准下运行的想法",因为"如果一个工具影响患者的理解、决策或行为,它应该与其他任何临床工具处于同一标准",她补充说,目前情况并非总是如此。
这些AI聊天机器人最终是缓解过度紧张的医疗系统的压力,还是引入新的风险,可能更多地取决于医院如何谨慎地监测、管理和将其整合到临床护理中,而非技术本身。
【全文结束】

