当人工智能可以提供生活方式建议时,人们很容易对其产生信任依赖。然而最近一起真实案例给所有人敲响警钟——一名60岁男子因采纳ChatGPT的减钠饮食建议,网购溴化钠替代食盐后出现严重中毒症状,最终导致住院治疗。
根据《美国医师学会杂志》发表的病例报告显示,该男子曾有营养学学习背景,他相信AI聊天机器人的建议,将日常食用的氯化钠替换为溴化钠。仅仅数月后,他就出现了妄想、幻觉、严重口渴和皮肤异常变化等症状。值得注意的是,该患者既往无任何精神或躯体疾病史。
入院检查显示患者出现溴中毒症状,这种在现代医学中罕见的病症曾因溴化物被用于治疗焦虑症和失眠症而常见。经过三周治疗后患者虽已康复,但该案例已成为AI医疗风险的警示案例。
OpenAI在其服务条款中明确声明:"不应将本服务的输出作为事实信息的唯一来源,或作为专业建议的替代品。"《美国医师学会杂志》的研究团队也指出,AI工具可能生成科学错误并传播健康虚假信息。哈佛医学院数字精神科主任John Torous教授强调:"AI可以作为一般教育工具,但缺乏人类医生对患者病史、背景和需求的综合判断能力。"
这种技术双刃剑效应在新冠疫情期间尤为明显,当时许多人转向聊天机器人寻求情感支持。虽然AI在食谱推荐、生活技巧等方面表现出色,但在涉及健康决策时,其"知识幻觉"(指AI自信地生成错误信息)特性可能带来致命风险。正如研究指出的,AI缺乏人类医疗工作者的同理心和伦理责任体系。
特别值得注意的是,AI生成的建议可能看起来科学严谨却暗含致命错误。例如,将"钠"作为健康饮食关键词时,AI可能会混淆钠的不同化合物属性——虽然钠是人体必需元素,但氯化钠(食盐)和溴化钠具有完全不同的生物活性。这种细微差别可能导致AI建议变成危险处方。
专家呼吁公众保持清醒认知:AI可以成为健康知识的索引工具,但任何涉及个体化的医疗决策都必须经过专业医师评估。当技术便利性与生命健康发生碰撞时,人类智慧和专业判断仍是不可替代的最后防线。
【全文结束】

