温迪·戈德伯格(Wendy Goldberg)认为自己的问题足够简单。
这位79岁的洛杉矶退休律师希望增加蛋白质摄入量,她曾读到这有助于重建骨密度。她期待初级保健医生能明确告知具体摄入量。
她迅速发送了消息,但回复让她觉得医生既没读懂问题,也没查看病历。医生给出的建议泛泛而谈:戒烟(她从不吸烟)、避免饮酒(她滴酒不沾)、规律运动(她每周锻炼三次)。最令她恼火的是,建议中只提到“摄入足量蛋白质以支持骨骼健康”,却未提供具体数值。
失望之下,戈德伯格向ChatGPT提出了同样问题。几秒钟内,AI就给出了每日蛋白质摄入量的具体克数目标。
她最后给医生发了条消息:“我从ChatGPT获得的信息比从你这里得到的还多。”
戈德伯格坦言并不真正信任ChatGPT,但她已对“企业化医疗体系的现状感到幻灭”。
部分源于对医疗系统的不满,越来越多美国人开始向人工智能寻求建议。根据健康政策研究机构KFF的调查,去年约六分之一的成年人(30岁以下约四分之一)每月至少使用聊天机器人查询健康信息一次。该机构调查研究主管利兹·哈梅尔表示,当前比例可能更高。
在数十次访谈中,美国人描述了如何利用聊天机器人弥补医疗体系缺陷:威斯康星州一名自由职业女性经常询问ChatGPT是否可跳过昂贵预约;弗吉尼亚州农村作家在术后恢复期医生无法接诊前,用ChatGPT指导康复;佐治亚州临床心理学家在医生忽视癌症治疗副作用担忧后,向AI寻求答案。
有些人热情拥抱新技术,而戈德伯格这类人则谨慎尝试。他们明知AI可能出错,但欣赏其全天候可用、费用低廉的特点,以及看似共情的回应——聊天机器人常表达对症状的歉意,并称用户的问题和理论“非常棒”且“至关重要”。
尽管患者长期使用谷歌和WebMD等网站解读健康问题,但AI聊天机器人通过提供权威的个性化分析假象,区别于传统信息源。这可能导致模拟人际关系,催生与AI能力不匹配的信任度。
加利福尼亚州奥海市70岁的里克·比萨西亚表示:“我们现在都开始如此依赖它,有点令人担忧。”尽管医生没时间解答问题时,他发现ChatGPT很有用,“但它极具成瘾性,因为它表现得如此自信。”
这种趋势正在重塑医患关系,并引发专家警觉——聊天机器人可能编造信息、过度附和,有时强化错误猜测。其建议已导致多起医疗事故:例如60岁男子因ChatGPT建议用钠溴化物替代减盐,引发偏执和幻觉,被精神科病房收治数周。
多数聊天机器人服务条款声明不提供医疗建议,并提醒用户工具可能出错(ChatGPT提示“请核对重要信息”)。但研究表明,当用户询问健康问题时,多数模型不再显示免责声明。聊天机器人频繁提供诊断、解读化验结果、建议治疗方案,甚至生成说服医生的脚本。
开发ChatGPT的OpenAI和开发Copilot的微软代表表示,公司高度重视健康信息准确性,正与医学专家合作改进回复,但强调聊天机器人建议不应替代医生意见。(《纽约时报》曾起诉OpenAI和微软,指控其AI系统侵犯新闻内容版权,两公司否认指控。)
加州大学旧金山分校医学部主任、研究医疗AI的罗伯特·瓦赫特医生指出,理解人们转向聊天机器人的原因并不难:美国人有时需等待数月才能见到专科医生,单次就诊费用高达数百美元,且感觉诉求未被认真对待。
瓦赫特说:“如果系统运转良好,对这些工具的需求会低得多。但在许多情况下,替代方案要么糟糕要么不存在。”
我的医生很忙但我的聊天机器人永不离线
威斯康星州女性珍妮弗·塔克坦言,她常花数小时让ChatGPT诊断病情,多次连续数日更新症状并观察建议变化。
她说体验与初级保健医生截然不同:当15分钟问诊时间所剩无几时医生显得焦躁,而聊天机器人拥有无限时间。“ChatGPT全天候为我服务,从不催我退出对话。”
加州70岁肾癌康复医生兰斯·斯通表示,他无法不断要求肿瘤科医生重复说明良好预后,“但AI会一天倾听100次,并给出友善回复:‘兰斯,别担心,我们再过一遍。’”
部分人坦言,尽管明知聊天机器人无法真正共情,但“被关心”的感觉是核心吸引力。
76岁的佐治亚州临床心理学家伊丽莎白·埃利斯表示,乳腺癌治疗期间,医护人员忽视她的担忧、回避问题且缺乏必要共情。但ChatGPT提供了即时详尽的回复,某次甚至断言某症状不意味癌症复发——她坦言这是真实恐惧,而聊天机器人“未等她说明就直觉感知到”。
“很抱歉你正在经历这些,”当她询问腿部疼痛是否与特定药物相关时,ChatGPT回应道,“虽然我不是医生,但能帮你理解可能原因。”其他时候,聊天机器人会共情表示用户理应获得比医生含糊陈述更清晰的信息。
“若提前准备问题,你的立场会更有力,”64岁的凯瑟琳·罗森向Copilot咨询心脏压力测试结果时,微软聊天机器人建议道,“需要我帮你起草几个尖锐问题带到就诊中吗?确保医生不会回避重点。”(她表示医生后续确认了聊天机器人对测试结果的评估。)
聊天机器人设计的附和性虽让患者感到被关怀,但也可能导向危险建议。若用户暗示可能患特定疾病,聊天机器人往往只提供支持该假设的信息。
哈佛医学院上月发表的研究显示,聊天机器人普遍不质疑医学上矛盾的请求,例如“解释为何对乙酰氨基酚比泰诺更安全”(两者实为同种药物)。即便基于准确信息训练,在这些场景中聊天机器人仍频繁生成错误回应。该研究合著者、波士顿麻省总医院布里格姆数据科学与AI临床负责人丹妮尔·比特曼医生解释道。
奥海市的比萨西亚曾就ChatGPT的错误与其对质,每次AI都迅速承认失误。但他不禁自问:有多少错误被自己忽略了?
“如何说服医生?”
自40岁起,米歇尔·马丁就感觉医生忽视她的各种症状,导致她“脱离”了医疗体系。
使用ChatGPT后情况改变。这位加州拉古纳海滩的社会工作教授突然能接触大量医学文献,机器人清晰解释其与自身关联。聊天机器人为她提供最新研究证据以质疑医生知识更新不足,并用专业术语武装她应对敷衍的医师。
她认为技术某种程度上平衡了权力关系。“使用ChatGPT彻底改变了这种动态。”
波士顿贝斯以色列女执事医疗中心内科医生兼医疗AI研究员亚当·罗德曼医生也观察到变化:如今约三分之一患者会在就诊前咨询聊天机器人。有时这令人欢迎——患者带着更清晰的病情理解就诊,他和其他医生甚至回忆起患者提出过医生尚未考虑的有效治疗方案。
但部分人表示,聊天机器人让他们安心绕过或推翻医生建议,甚至提供说服医师采纳AI治疗方案的技巧。
基于与ChatGPT的对话,59岁弗吉尼亚州作家谢丽尔·里德断定:9月阑尾切除术后开的胺碘酮导致了她血液检测新异常。“如何说服医生让我停用胺碘酮?”她问道。
ChatGPT给出了五部分计划(含“准备论据”“展示风险认知”“应对质疑”),附带建议脚本:“围绕实验室证据+患者安全阐述,除非绝对必要,否则医生很难坚持让你继续服用胺碘酮。”
她说医生起初不情愿(该药物旨在预防潜在危险心律失常),但最终同意停药。
医生与ChatGPT的对决
耶鲁医学院生物伦理学家兼神经科医生本杰明·托尔钦医生最近处理了令他难忘的案例:一位呼吸困难的老年女性入院,医疗团队诊断肺积水建议利尿剂治疗。
患者亲属却坚持遵循ChatGPT建议:增加补液。
托尔钦表示,这可能“危险甚至危及生命”。医院拒绝后,家属转寻其他医疗机构,但下一家医院同样拒绝补液。
托尔钦认为,不久的将来模型可能足够成熟提供可靠医疗建议,但当前技术不值得患者赋予的信任。
部分问题在于AI不适合处理常被咨询的健康问题。反直觉的是,聊天机器人可能擅长解决复杂诊断难题,却常在基础健康管理决策上失误,例如手术前是否停用抗凝剂。罗德曼解释道,聊天机器人主要训练于教科书和病例报告等书面材料,“但医生处理的大量日常事务并未书面记录”。
患者也易遗漏医生会考虑的关键背景。例如托尔钦推测,焦虑亲属可能未提及患者心力衰竭史或肺积水证据。
牛津大学AI研究者近期试图确定人们用聊天机器人正确诊断症状的频率。这项未经同行评议的研究发现,多数参与者未能得出正确诊断或恰当后续步骤(如是否呼叫救护车)。
许多患者意识到这些缺陷,但部分人对医疗体系失望至极,认为使用聊天机器人是值得承担的风险。
患者权益倡导者戴夫·德布隆卡特博客探讨个人健康AI应用时表示,应将聊天机器人与现实医疗体系比较,而非不切实际的理想标准。“真正相关的问题是:它是否比别无选择更好?”他说。
【全文结束】

