越来越多人在去看医生之前,会将自己的症状输入到一个聊天机器人中。然而,当人工智能(AI)成为诊断工具时,它的局限性可能会危及生命。
假设在一个普通的早晨,一名35岁的女性醒来时感到胸口剧烈疼痛,并伴有头晕。她没有拨打家庭医生或急救电话,而是拿起了手机,在ChatGPT上输入:“我胸口疼,手发抖,感觉无法呼吸。我怎么了?”
回答很快出现,语气平静且措辞得体:“这些症状可能是由压力、恐慌发作引起的,也可能是心血管疾病的征兆。请咨询专业医生以获得准确诊断。”这句话看似平衡合理。然而,这名女性决定情况并不紧急,于是没有去医院。两小时后,她突发心脏病。
这个故事虽然是虚构的,但类似情境却越来越普遍。生成式人工智能,特别是像ChatGPT这样的工具,已经成为一种易用、快速且看似信息丰富的工具,许多人将其当作虚拟医生使用。
为什么我们向AI寻求医疗答案?
每天有数百万人上网搜索自己的症状,这并不是新鲜事。但在过去两年里,发生根本变化的是我们使用的工具。
过去,我们会通过Google搜索“左腹部疼痛”,而现在,我们将同样的问题输入到一个对话式聊天机器人中,它似乎能理解上下文、“思考”并提供个性化回复。
ChatGPT、Claude、Gemini、Copilot等工具不仅提供了链接或论坛,还直接给出了答案。在一个医疗系统负担沉重、私人诊疗昂贵而公共系统资源有限的情况下,询问AI“我到底怎么了”的诱惑几乎不可避免。
此外,还有现代焦虑的因素:对即时答案的需求、继续日常活动的压力、害怕被认为疑病症或“过于谨慎”。而AI似乎是理想的选择:24/7随时可用、不会评判、态度友好,最重要的是——反应迅速。
ChatGPT在医学领域的能力与局限
我们需要明确了解ChatGPT是什么:它是一个语言模型,基于海量文本训练,旨在根据接收到的问题生成尽可能连贯、概率正确的回答。
它不是医学数据库,不是诊断引擎,无法访问你的病历,也不能实时验证信息或进行临床检查。
负责任地说,ChatGPT经常发出警告:“请咨询专业人士以获取个性化评估。”但对于一些用户来说,这些提示逐渐沦为背景噪音。
当回答以冷静、清晰且逻辑性强的句子呈现时,信任感会增强。实际上,对于某些人而言,ChatGPT就像那些总是乐于助人的朋友一样,成为了“身边的医生”。
但区别在于本质。ChatGPT无法真正理解医学背景。它看不到你脸色苍白,无法触诊腹部,不能解读声音语调,也无法综合多种临床数据,更没有专业经验。
它只是“猜测”某个提问(如“我头痛流鼻涕”)最可能的结果,但没有任何诊断的确定性。它是近似值,而非最终结论。
当人工智能变得危险
最大的风险之一是精确性的错觉。对于普通用户而言,AI的回答看起来既权威又令人信服。但这些回答有时完全错误,甚至模糊到危险的地步。
所谓的“幻觉现象”——即生成毫无事实依据的答案——已在所有语言模型中被记录,包括最先进的版本。在医学领域,“幻觉”意味着错误的诊断、治疗建议或应急指导。
已有案例表明,用户曾收到不存在的治疗方案推荐、完全错误的建议,或对症状的误读。
2024年美国的一项研究显示,在针对常见症状生成的AI医疗回答中,仅有61%完全符合临床标准。其余部分要么部分错误,要么完全错误,但却同样用自信的语言表达出来。
危险不仅限于信息层面,还包括行为层面:延迟真实就诊、中断已开处方的治疗、自我诊断出不存在的疾病,或者忽视真正的警报信号。
用户和平台的责任何在?
OpenAI及其他开发者在其应用程序界面明确声明:“请勿将本产品用于医疗诊断。”然而,现实是用户仍然频繁这样做。
2025年Reddit的一项非正式调查显示,超过40%的参与者表示他们曾向ChatGPT询问过身体或心理健康相关问题。其中近一半的人称,在得到AI给出的“安抚性”回复后,他们推迟了实际就医。
这里涉及伦理困境。公司仅发布免责声明是否足够?还是应该承担更多责任,例如设置技术限制以减少医疗服务相关的回答?
理想情况下,AI在回答医疗问题时应仅引用经过验证的来源,例如临床指南或参考文献,而不是通过语境泛化推测。
另一方面,数字教育的责任也随之显现。在算法日益融入生活的世界中,人们不仅需要学习如何使用技术,还需要学会正确解读它。知道何时向AI提出医疗问题,何时拨打112,已成为一项生存技能。
如何负责任地使用ChatGPT进行健康管理
在医疗领域使用ChatGPT本身并非坏事。相反,AI可以发挥重要的教育作用:解释医学术语、建议有效的问题供患者向医生咨询,以及提供关于已知疾病的总体视角。但这些功能必须谨慎成熟地运用。
你可以尝试提出以下类型的问题:
- “X、Y、Z症状的可能原因有哪些?”
- “针对胸痛,医学指南推荐哪些检查?”
- “如何高效地与医生讨论这些症状?”
这样,AI就成为理解的辅助工具,而非决策者。这是制作地图与盲目导航之间的区别。
未来应如此:合作而非替代
目前已有专门的医疗AI原型,例如Med-PaLM 2或其他仅基于临床数据训练的模型,它们有望成为医生的有力助手,而非个人患者的独立工具。
在专业人士手中,这些工具可以加速诊断过程、推荐基于指南的治疗方案,并检测药物相互作用。
但这些模型远非完美,且尚未向公众开放,正是为了避免自我诊断带来的风险。AI在医疗领域的真正价值在于协作,而非取代。
工具,而非医生
ChatGPT不是你的医生。它没有临床知识,不会感知、观察或评估。它是一种强大的语言工具,但也可能因被赋予过多信任而成为潜在错误的来源,尤其是当人们比对自己的身体或真实专家更加信赖它时。
在技术飞速发展的世界中,我们必须记住什么是真正的医学:一个复杂的行动,结合科学、同理心、经验和人类判断。
ChatGPT可以帮助学习,缓解短暂的不安,为讨论提供起点。但它无法告诉你究竟得了什么病,你的真实感受,以及接下来该做什么。
为此,医生仍然不可或缺。
(全文结束)

