从聊天机器人到病床:一撮盐如何成为危险的AI处方From chatbot to hospital bed: how a dash of salt became a dangerous AI prescription

环球医讯 / AI与医疗健康来源:iol.co.za南非 - 英语2025-08-11 21:33:58 - 阅读时长2分钟 - 877字
60岁男子因采纳ChatGPT建议用溴化钠替代食盐导致严重中毒住院,引发医学界对AI健康建议风险的警告。研究显示AI可能生成科学错误并传播虚假信息,专家强调医疗决策需结合临床经验与个体化评估,AI无法替代专业医疗建议。此案例揭示了AI在健康领域的双刃剑效应,警示公众需保持对AI建议的审慎态度。
AI医疗风险健康决策溴中毒AI虚假信息专业医师评估健康知识索引个体化医疗决策钠化合物区别
从聊天机器人到病床:一撮盐如何成为危险的AI处方

当人工智能可以提供生活方式建议时,人们很容易对其产生信任依赖。然而最近一起真实案例给所有人敲响警钟——一名60岁男子因采纳ChatGPT的减钠饮食建议,网购溴化钠替代食盐后出现严重中毒症状,最终导致住院治疗。

根据《美国医师学会杂志》发表的病例报告显示,该男子曾有营养学学习背景,他相信AI聊天机器人的建议,将日常食用的氯化钠替换为溴化钠。仅仅数月后,他就出现了妄想、幻觉、严重口渴和皮肤异常变化等症状。值得注意的是,该患者既往无任何精神或躯体疾病史。

入院检查显示患者出现溴中毒症状,这种在现代医学中罕见的病症曾因溴化物被用于治疗焦虑症和失眠症而常见。经过三周治疗后患者虽已康复,但该案例已成为AI医疗风险的警示案例。

OpenAI在其服务条款中明确声明:"不应将本服务的输出作为事实信息的唯一来源,或作为专业建议的替代品。"《美国医师学会杂志》的研究团队也指出,AI工具可能生成科学错误并传播健康虚假信息。哈佛医学院数字精神科主任John Torous教授强调:"AI可以作为一般教育工具,但缺乏人类医生对患者病史、背景和需求的综合判断能力。"

这种技术双刃剑效应在新冠疫情期间尤为明显,当时许多人转向聊天机器人寻求情感支持。虽然AI在食谱推荐、生活技巧等方面表现出色,但在涉及健康决策时,其"知识幻觉"(指AI自信地生成错误信息)特性可能带来致命风险。正如研究指出的,AI缺乏人类医疗工作者的同理心和伦理责任体系。

特别值得注意的是,AI生成的建议可能看起来科学严谨却暗含致命错误。例如,将"钠"作为健康饮食关键词时,AI可能会混淆钠的不同化合物属性——虽然钠是人体必需元素,但氯化钠(食盐)和溴化钠具有完全不同的生物活性。这种细微差别可能导致AI建议变成危险处方。

专家呼吁公众保持清醒认知:AI可以成为健康知识的索引工具,但任何涉及个体化的医疗决策都必须经过专业医师评估。当技术便利性与生命健康发生碰撞时,人类智慧和专业判断仍是不可替代的最后防线。

【全文结束】

大健康

猜你喜欢

  • 街头医疗团队为长岛无家可归者提供医疗服务街头医疗团队为长岛无家可归者提供医疗服务
  • 研究发现AI聊天机器人常传播医疗虚假信息研究发现AI聊天机器人常传播医疗虚假信息
  • 关于避孕措施危险性的网络传言是否可信?关于避孕措施危险性的网络传言是否可信?
  • ChatGPT建议盐替代方案致男子溴化物中毒入院ChatGPT建议盐替代方案致男子溴化物中毒入院
  • 年轻运动员亦需警惕脑部损伤引发的心理健康风险年轻运动员亦需警惕脑部损伤引发的心理健康风险
  • AI ChatGPT饮食建议引发罕见溴中毒病例AI ChatGPT饮食建议引发罕见溴中毒病例
  • AI在医疗保健:避开术语宾果AI在医疗保健:避开术语宾果
  • AI与机器学习在临床支持中的应用AI与机器学习在临床支持中的应用
  • 研究发现糖尿病前期与年轻成年人较高死亡风险相关研究发现糖尿病前期与年轻成年人较高死亡风险相关
  • AI在医疗保健领域:医疗保健的未来AI在医疗保健领域:医疗保健的未来
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康