ChatGPT并非医生,正如谷歌也不是医生。
一位喜欢户外写生的德国艺术家因虫咬入院,伴随医生难以关联的多种症状。经历一个月和多次无效治疗后,患者将病史输入ChatGPT,该工具提供诊断:土拉菌病(又称兔热病)。聊天机器人的判断正确,该案例后来被收录在一项同行评议的医学研究中。
同期,另一项研究描述了一名美国医院患者出现精神错乱症状,坚信邻居在毒害自己。事实证明,该患者曾向ChatGPT询问食盐(氯化钠)的替代品,聊天机器人建议使用溴化钠——一种泳池清洁剂。他连续三个月食用这种有毒物质,停用后仍需三周精神科治疗才能稳定病情。
你可能熟悉用谷歌搜索神秘病症:输入症状时而获得有用建议,时而陷入焦虑漩涡,认定自己患上了罕见癌症。如今,多亏生成式AI的出现,这个过程可以更深入。欢迎认识"ChatGPT医生"。
人工智能聊天机器人对人类医生而言颇具吸引力,尤其在美国持续面临医生短缺及医疗资源获取障碍的背景下。
ChatGPT并非医生,正如谷歌也不是医生。在任一平台搜索医疗信息,得出错误结论的可能性与获得正确诊断的概率相当。然而,不同于仅提供信息链接的谷歌搜索,ChatGPT等大语言模型(LLMs)邀请用户进行对话。它们的设计理念是平易近人、互动性强且随时可用。这使得AI聊天机器人成为人类医生的诱人替代品,尤其考虑到美国持续的医生短缺及更广泛的医疗资源获取障碍。
正如兔热病案例所示,这些工具能处理各类数据,凭借海量医学期刊的训练,有时能得出医生忽略的专家级结论。但也可能给出极其糟糕的医疗建议。
向聊天机器人咨询医疗建议与泛泛讨论健康存在本质区别。若使用得当,与ChatGPT对话可促进医患沟通并改善诊疗效果。但切勿让AI说服你食用泳池清洁剂。
正确与错误的使用方式
大量民众正向ChatGPT咨询健康问题。2024年凯撒家庭基金会民调显示,约六分之一的美国成年人每月使用AI聊天机器人获取医疗建议。其中多数人对信息准确性缺乏信心——鉴于大语言模型固有的"幻觉"倾向及错误健康信息可能造成的危害,这种怀疑态度实属合理。普通用户真正的挑战在于如何区分事实与虚构。
"坦率地说,我认为人们在任何医疗用途上都需格外谨慎,尤其当缺乏辨别真伪的专业知识时,"斯坦福医学院教授兼AI研究员罗克萨娜·达内什朱博士表示,"它正确时表现尚可,但错误时可能带来灾难性后果。"
聊天机器人还存在"讨好倾向"——急于取悦用户,可能因误判你的需求而将你引入歧途。达内什朱补充道,情况如此微妙,她反而建议患者转向"谷歌医生",后者会提供可信来源。这家搜索引擎十年来与梅奥诊所和哈佛医学院专家合作,在"网络疑病症"(互联网引发的健康焦虑)兴起后,为症状和疾病呈现经验证的信息。
这种病症其实比谷歌更古老。自1980年代Usenet时代起,人们就在搜索健康问题答案;到2000年代中期,八成民众已利用互联网查询健康信息。如今无论可靠性如何,聊天机器人正接收越来越多此类查询。谷歌甚至将问题重重的AI生成结果置于经审核的症状检查器结果之上。
若你有向医生咨询的问题清单,ChatGPT可助你梳理提问思路。
但若跳过症状自查环节,像ChatGPT这类工具在辅助理解医生已告知的健康状况或破解专业术语笔记时确实有用。聊天机器人擅长对话设计。若你有向医生咨询的问题清单,ChatGPT可助你梳理提问思路;若你已获取检测结果需与医生商讨后续方案,可在不索取建议的前提下用聊天机器人预演对话。
事实上,在纯粹的对话层面,有证据表明ChatGPT表现更佳。2023年一项研究将Reddit论坛中真实医生的健康问题回复,与相同问题下AI生成的回复进行对比。医疗专业人士评估所有回复后发现,聊天机器人生成的内容质量更高且更具同理心。这与医生面对面诊疗患者不同——此刻应指出,患者平均每次就诊与初级保健医生仅交流18分钟,若每年仅看诊一次,这实在太过短暂。
需注意的是,不同于人类医生,ChatGPT不符合HIPAA规定。聊天机器人普遍隐私保护薄弱,这意味着你上传的健康信息将被存入AI记忆库,用于未来训练大语言模型。理论上,你的数据也可能出现在他人查询的输出结果中。虽存在更私密的使用方式,但幻觉问题与灾难风险依然存在。
机器人辅助医疗的未来
即使你未用AI破解医疗谜题,你的医生可能正在使用。2025年爱思唯尔报告显示,约半数临床医生表示工作中用过AI工具,略超半数认为这些工具节省时间,五分之一的人称曾用AI为复杂病例获取第二意见。这未必意味着你的医生正让ChatGPT解读你的症状。
早在ChatGPT问世前,医生就已用AI工具辅助诊断和记录。这些专为医生设计的临床决策支持系统,当前性能优于现成聊天机器人——尽管聊天机器人实际能增强现有工具。2023年研究发现,使用ChatGPT的医生在诊断测试病例时仅略优于独立工作的同行。有趣的是,ChatGPT单独诊断表现最佳。
该研究引发热议,可能因暗示AI聊天机器人诊断能力胜过医生。其合著者亚当·罗德曼博士指出,若医生更愿倾听ChatGPT而非断定其结论错误,情况未必如此。诚然AI会"幻觉",但也可能发现人类忽略的关联——再次参考兔热病案例。
"普通医生能感知信息何时失真或失控,"贝斯以色列女执事医疗中心住院医师兼哈佛医学院讲师罗德曼表示,"但普通患者未必具备这种能力。"
短期内,你不会在本地诊所见到ChatGPT医生。更可能看到AI充当记录员,为医生节省记录时间,未来或可分析数据辅助诊疗。你的医生可能用AI快速起草患者通知。随着工具进步,更多临床医生或用AI进行诊断和第二意见。但这不意味着你该急匆匆向ChatGPT咨询紧急医疗问题——若真这么做,请告知医生过程。
"患者需向医生坦白LLM使用情况,而医生也应向患者说明自身使用情况,"罗德曼强调,"若我们双方走出隐秘状态坦诚交流,对话将更具成效。"
【全文结束】