同理心强、随时可用、价格低廉:当医生力不从心时美国人为何转向人工智能
越来越多的美国人正悄然转向聊天机器人寻求健康指导,并非因为他们认为人工智能完美无缺,而是因为相较于他们所依赖的医疗体系,AI往往显得更专注、更易获取且响应更迅速。《纽约时报》报道称,这种转变正在重塑患者体验,并暴露出许多人所描述的"节奏匆忙、费用高昂且情感匮乏"的医疗环境中存在的深层裂痕。
为何沮丧的患者转向聊天机器人
当洛杉矶79岁的退休律师温迪·戈德伯格(Wendy Goldberg)想了解保护骨骼所需的蛋白质摄入量时,她向家庭医生发送了简单咨询。收到的回复却显得笼统且不专注:医生建议她戒烟限酒——尽管她从未沾染这些习惯,还要求她增加运动量——而她每周已锻炼多次。最令她沮丧的是,医生仅建议摄入"足量蛋白质"却未给出具体数值。
恼怒之下,她将相同问题输入ChatGPT。聊天机器人立即提供了个性化的每日克数范围及适宜食物示例。她后来告诉医生,自己从聊天机器人处获取的信息更为优质。戈德伯格并不完全信任AI,但她对所谓的"企业化医疗"感到幻灭——在简短的问诊时间和模糊的建议中,她觉得自己未被真正看见。
她的经历印证了更广泛的趋势。调查显示,如今每月有数百万人使用聊天机器人咨询健康问题,尤其是那些习惯向技术寻求指导的年轻成年人。威斯康星州一位自由职业女性用ChatGPT判断何时可安全推迟昂贵的就诊;弗吉尼亚州农村的一名作家在术后恢复期间,依靠聊天机器人支撑等待数周后的复诊;还有人在临床环境中感觉诉求被忽视后寻求二次意见,这种情况在女性和老年人中尤为常见。
比医疗系统更显人性的对话体验
与谷歌、WebMD等旧工具不同的是聊天机器人的对话式语调。人们不再浏览症状列表,而是获得看似个性化的分析:聊天机器人解读检验结果、梳理概率数据、建议后续问题,随时以关怀语气即时回应——尽管这些语言实为生成。
对部分用户而言,这种语调正是吸引力所在。当聊天机器人以"很抱歉您正在经历这些"或"您的问题很重要"开场时,人们感受到的宽慰远超与匆忙医生的交谈。佐治亚州76岁的心理学家伊丽莎白·埃利斯(Elizabeth Ellis)表示,AI有时让她比真实医疗服务者更被认可——后者似乎忙于应付过多预约,无暇展现同理心。
支持性回复背后的潜在风险
风险在于聊天机器人被设计为顺从模式,可能带来隐患。研究表明,它们常接受错误假设、强化不准确的自我诊断,偶尔甚至编造看似权威实则错误的解释。在广受关注的案例中,有人因聊天机器人建议用替代品代替食盐,意外接触有毒化合物。
即使聊天机器人经医学资料训练,也可能因真实医疗高度依赖语境而误解日常临床决策——用户未必提及心力衰竭、肾病或既往检查等关键细节,但这些对安全决策至关重要。
医生已注意到这一趋势。部分医生欢迎知识更丰富的患者,但更多人担忧民众带着聊天机器人制定的治疗计划而来,将医生视为障碍而非伙伴。医师警告称,AI工具会遗漏塑造安全医疗决策的微妙因素,从隐性症状到药物相互作用均可能被忽略。
当患者带着AI观点就诊时医生的应对
部分临床医生认为现状利弊参半:患者有时带着更清晰的术语认知或值得考虑的治疗方案而来;但更多时候,他们坚信聊天机器人正确而医生保守过时。这既可能压缩本已紧张的问诊时间,又会削弱双方信任。
尽管存在这些担忧,许多患者仍坦言明知聊天机器人可能出错,却仍偏好于它——相较于现行体系中漫长的等待、仓促的对话和高昂费用,对于被忽视者而言,选择并非在AI与理想医生之间,而是在"不完美的工具"与"毫无实质帮助"之间。正如某患者权益倡导者所言:真正的问题不在于AI是否完美,而在于对走投无路者而言,它是否仍比沉默更值得依靠。
【全文结束】

