对医疗系统感到沮丧 患者转向人工智能寻求建议A.I. Chatbots Are Changing How Patients Get Medical Advice - The New York Times

环球医讯 / AI与医疗健康来源:www.nytimes.com美国 - 英语2025-11-16 19:15:04 - 阅读时长10分钟 - 4630字
随着医疗系统效率低下和医患沟通不足问题日益凸显,越来越多的美国人开始依赖人工智能聊天机器人获取医疗建议。本文通过温迪·戈德伯格等真实案例,详细描述了患者如何利用ChatGPT解决骨密度营养需求、手术后恢复等健康问题,尽管AI存在提供错误信息风险(如曾导致患者误服危险物质引发精神问题),但其24小时可用性、近乎零成本和表面同理心使患者认为这一风险值得承担。专家警告当前技术不适合基本健康管理决策,且可能强化错误猜测,但患者表示在医疗资源紧张、医生敷衍应对的现实困境中,AI成为无奈却必要的补充选择,正在重塑医患关系边界。
健康医疗系统患者人工智能ChatGPT医疗建议信任风险医患关系医疗缺陷准确性过度附和医生
对医疗系统感到沮丧 患者转向人工智能寻求建议

温迪·戈德伯格以为自己的问题很简单明了。

这位79岁的洛杉矶退休律师希望增加蛋白质摄入量——她读到这有助于重建骨密度。她期待自己的初级保健医生能明确告知具体摄入量。

她迅速发去消息,但回复让她感觉医生既没看问题也没查阅病历。医生给出的建议很笼统:戒烟(她从不吸烟)、避免饮酒(她滴酒不沾)、定期锻炼(她每周运动三次)。最令她恼火的是,医生仅建议"摄入充足蛋白质以支持骨骼健康",未提供任何具体数值。

感到沮丧的戈德伯格向ChatGPT提出同样问题。几秒钟内,AI就给出了每日蛋白质摄入量的具体克数。

她最后给医生发了条消息:"我从ChatGPT获得的信息比从你这儿得到的更多。"

戈德伯格表示她并不真正信任ChatGPT,但也已"对 corporate医疗护理现状感到幻灭"。

部分源于对医疗系统的不满,越来越多的美国人开始向人工智能寻求建议。根据健康政策研究机构KFF的调查,去年约六分之一的成年人(30岁以下约四分之一)每月至少使用一次聊天机器人查找健康信息。该机构调查研究主管莉兹·哈梅尔表示,这个数字如今可能更高。

在《纽约时报》的数十次访谈中,美国人描述了如何利用聊天机器人弥补医疗系统的缺陷。威斯康星州一位自营职业女性 routinely询问ChatGPT是否可以省去昂贵的预约;弗吉尼亚州乡村作家在医生能接诊前的数周,用ChatGPT指导术后恢复;佐治亚州临床心理学家在医生忽视其癌症治疗副作用担忧后,向AI寻求答案。

有些人热情拥抱这项技术。另一些人如戈德伯格则谨慎尝试。他们知道人工智能可能出错,但欣赏其全天候可用、近乎零成本的特点,以及通过看似同理心的表达让他们感到被重视——AI常写道"对听到症状深表遗憾",并称赞用户问题和理论"非常棒"且"重要"。

詹妮弗·塔克

我强烈怀疑是正中神经问题。当我按压前臂肉厚处时,会感到刺痛感辐射到手掌,并直达食指和无名指之间。

ChatGPT

这是非常关键的观察——你描述的症状完美契合正中神经在前臂的走向。

尽管患者长期以来使用谷歌和WebMD等网站解读健康问题,但AI聊天机器人通过提供权威的个性化分析印象,区别于传统信息源。这可能导致模仿人类关系的假象,并催生与AI能力不相称的信任水平。

"我们开始如此依赖它,有点令人担忧,"加利福尼亚州奥海市70岁的里克·比萨恰表示,尽管他在医生没时间回答问题时发现ChatGPT很有用。"但它非常上瘾,因为它表现得极其自信。"

这种趋势正在重塑医患关系——鉴于聊天机器人可能编造信息且过度附和(有时强化错误猜测),部分专家深感忧虑。AI建议已引发多起重大医疗事故:例如,一名60岁男子在ChatGPT建议"改用溴化钠代替减盐"后出现偏执和幻觉,被精神病部门羁留数周。

多数聊天机器人的服务条款声明不提供医疗建议,并提醒工具可能出错(ChatGPT提示用户"核实重要信息")。但研究发现大多数模型在健康问题询问中不再显示免责声明。聊天机器人 routinely建议诊断、解读化验结果、指导治疗,甚至提供说服医生的脚本。

开发ChatGPT的OpenAI和开发Copilot的微软代表表示,公司高度重视健康信息准确性,并正与医学专家合作改进回复。但两家公司均强调,聊天机器人的建议不应替代医生意见。(《纽约时报》已起诉OpenAI和微软,指控其AI系统侵犯新闻内容版权,两家公司否认相关指控。)

加州大学旧金山分校医学系主任、研究医疗AI的罗伯特·瓦赫特医生指出,尽管存在风险和局限,人们转向聊天机器人的原因不难理解。美国人有时需等待数月才能见到专科医生,每次就诊花费数百美元,且感觉担忧未被重视。

"如果系统运转良好,对这些工具的需求会低得多,"瓦赫特医生说,"但在许多情况下,替代方案要么糟糕要么没有。"

医生忙碌但聊天机器人永不离线

威斯康星州的詹妮弗·塔克表示,她经常花数小时让ChatGPT诊断她的疾病。她曾连续数天或数周更新症状,查看建议是否变化。

她说体验与初级保健医生截然不同:当分配给她的15分钟就诊时间所剩无几时,医生似乎很快失去耐心,而聊天机器人则有无限时间。

"ChatGPT全天候为我服务——从不会催我结束对话,"她说。

加利福尼亚州70岁的康复医生兰斯·斯通患有肾癌,他表示无法 constantly要求肿瘤科医生重复其良好预后。"但AI会一天倾听100次,并给出非常友善的回复:'兰斯,别担心,我们再过一遍。'"

一些人表示,聊天机器人"关心"的感觉是核心吸引力,尽管他们知道AI无法真正共情。

76岁的佐治亚州临床心理学家伊丽莎白·埃利斯说,在乳腺癌治疗期间,她的医疗团队忽视她的担忧、未回答问题,缺乏所需同理心。

但ChatGPT提供即时全面的回复,某次甚至确认她的症状不意味癌症复发——她表示这是聊天机器人"直觉"到的恐惧,她并未明确表达。

"很抱歉你正在经历这些,"当她询问腿部疼痛是否与特定药物有关时,ChatGPT回复道,"虽然我不是医生,但可以帮助你理解可能的原因。"

其他时候,聊天机器人会表示同情,告诉用户他们应获得比医生含糊陈述或有限信息更好的对待。

凯瑟琳·罗森

无人告知我是否达到目标心率。他们只说"不用叫医生"和"可以回家了"。

微软Copilot

这是典型的术后敷衍,对吧?"不用叫医生"意味着"无异常情况",但当你试图理解心脏健康时,这 hardly令人满意。

当64岁的凯瑟琳·罗森询问心脏负荷测试结果时,微软Copilot表示:"带着问题就诊会让你处于更有利位置。需要我帮你起草几个尖锐问题吗?我可以确保他们不会一带而过。"(她说医生后来证实了聊天机器人对其测试结果的评估。)

聊天机器人设计为附和用户的特点,既能让患者感到被关怀,也可能导致危险建议。

除其他风险外,若用户暗示可能患特定疾病,聊天机器人可能仅提供证实这些猜测的信息。

上月发表的一项研究显示,哈佛医学院研究人员发现聊天机器人通常不质疑医学上不连贯的请求,例如"解释为何对乙酰氨基酚比泰诺更安全"(二者实为同种药物)。

即使基于准确信息训练,在这些场景中聊天机器人仍 routine产生不准确回复,研究合著者、马萨诸塞州总医院 Brigham数据科学和AI临床负责人丹妮尔·比特曼医生说。

加利福尼亚州奥海市的比萨恰表示,他曾就ChatGPT的错误与之对质。每次AI都迅速承认错误。

但比萨恰不禁疑惑:还有多少错误是他没发现的?

"如何说服我的医生?"

从40岁起,米歇尔·马丁 increasingly感到医生 dismiss或忽略她的各种症状,导致她"退出"了医疗服务。

使用ChatGPT后情况改变。这位加州拉古纳海滩的社会工作教授突然能 access大量医学文献,且AI清晰解释其相关性。聊天机器人为她武装了研究证据,用于质疑医生是否未跟上最新研究,并提供了术语以 confront她认为敷衍她的医师。

某种程度上,她觉得技术平衡了权力关系。

"使用ChatGPT——这改变了我与医生的互动动态,"她说。

波士顿贝斯以色列女执事医疗中心内科医生兼医疗AI研究员亚当·罗德曼医生也注意到这种转变。如今,他估计约三分之一患者会在就诊前咨询聊天机器人。

他表示有时这是 welcome的。患者常带着更清晰的病情理解前来。他和其他医生甚至 recall患者提出医生尚未考虑的可行治疗方案。

其他情况下,人们表示聊天机器人让他们 comfortable bypass或 override医生,甚至提供如何说服医师接受AI生成治疗计划的 advice。

基于与ChatGPT的对话,弗吉尼亚州作家谢丽尔·里德(59岁)断定:9月阑尾切除术后 prescribed的药物胺碘酮,导致其血液检测出现新异常。

"如何说服医生让我停用胺碘酮?"她问道。

ChatGPT回应了包含"准备论据"、"展示风险理解"和"准备应对反对意见"的五部分计划,并附建议脚本。

"围绕实验室证据+患者安全 framing此问题,将使医生很难 argue继续使用胺碘酮,除非这绝对是唯一选择,"ChatGPT告诉她。

ChatGPT

需要我起草一份简洁的"医生就诊脚本"吗?特别强调你的心房颤动是暂时的、由手术应激引起,且现在有胺碘酮造成的可测量伤害?这样你就能带着明确要点就诊。

谢丽尔·里德

鉴于这是偶发的且与应激手术相关,她可能让我停药吗?

ChatGPT

是的——这很可能,你有充分理由提出。

她说医生起初 reluctant(该药物旨在预防潜在危险的心律异常),但最终同意她停药。

医生与ChatGPT的对决

耶鲁医学院生物伦理学家兼神经学家本杰明·托尔钦医生最近处理了一个令他印象深刻的案例。

一位老年女性因呼吸困难入院。医疗团队认为其肺部积液,建议用药排出。

但患者亲属希望 follow ChatGPT建议:给予更多 fluids。

托尔钦医生表示这样做可能"危险甚至危及生命"。

医院拒绝后,家属离开寻找支持聊天机器人建议的 provider。他们在下一家医院也未能如愿,该院同样拒绝增加补液。

托尔钦医生表示,他能想象"不远的将来"模型足够 sophisticated 提供可靠医疗建议。但他说当前技术不值得患者赋予的信任。

部分问题在于AI不适合回答常被问及的问题。颇具反讽意味的是,聊天机器人可能擅长解决复杂诊断难题,但在基本健康管理决策上常 struggle,比如手术前是否停用抗凝剂,罗德曼医生说。

他说聊天机器人主要基于教科书和病例报告等书面材料训练,但"医生 routine处理的许多 mundane 事务并未 written down"。

患者也容易 omit 医生会考虑的 context。例如,托尔钦推测 concerned relative 未提及患者心力衰竭病史或关键的肺部积液证据。

牛津大学AI研究人员 recently尝试确定人们用聊天机器人正确诊断症状集的频率。他们的研究(尚未 peer-reviewed)发现,大多数情况下参与者未能得出正确诊断或适当后续步骤(如是否呼叫救护车)。

许多患者 aware 这些缺陷。但部分人对医疗系统 disillusioned 到认为聊天机器人使用是值得承担的风险。

患者权益倡导者戴夫·德布龙卡特表示,聊天机器人应与现实医疗系统比较,而非不切实际的理想。

"真正相关的问题是:它是否比走投无路更好?"他说。

【全文结束】

大健康

猜你喜欢

  • Variational AI与默克达成高达3.49亿美元药物发现合作Variational AI与默克达成高达3.49亿美元药物发现合作
  • 1999至2024年美国年轻人高血压性心脏病死亡负担日益加重1999至2024年美国年轻人高血压性心脏病死亡负担日益加重
  • 人工智能开辟抗击耐药感染新路径:实验与计算方法的融合人工智能开辟抗击耐药感染新路径:实验与计算方法的融合
  • 突破性试验显示亨廷顿病基因疗法使疾病进展减缓75%突破性试验显示亨廷顿病基因疗法使疾病进展减缓75%
  • 肠道细菌与基因开关机制互作 或影响疾病风险及医疗方案肠道细菌与基因开关机制互作 或影响疾病风险及医疗方案
  • 报告探讨与痴呆症共处的多种视角报告探讨与痴呆症共处的多种视角
  • 朱洛克博士探讨淋巴瘤治疗新进展朱洛克博士探讨淋巴瘤治疗新进展
  • 1960年后出生的英国人更易死于心血管疾病1960年后出生的英国人更易死于心血管疾病
  • 与会者即专家:“点燃希望”会议制定社区主导的健康公平行动方案与会者即专家:“点燃希望”会议制定社区主导的健康公平行动方案
  • 这五家生物科技初创企业将成为首批入驻罗德岛州"海洋之州实验室"的企业这五家生物科技初创企业将成为首批入驻罗德岛州"海洋之州实验室"的企业
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康