在一项令人震惊的医学案例中,美国一位60岁男子因完全听从ChatGPT的饮食建议,将食盐(氯化钠)从饮食中完全剔除,最终引发罕见的溴中毒(bromism)——一种19世纪末至20世纪初常见的精神障碍疾病。这是继AI普及以来首次出现的系统性中毒病例。
患者最初通过AI大模型咨询食盐替代品,ChatGPT建议使用溴化钠作为氯元素补充来源。尽管该物质确实在工业领域用于清洁剂和化学制剂,但其对人体具有强烈神经毒性。患者连续3个月摄入后,体内溴化物蓄积导致中枢神经系统中毒,出现面部痤疮、樱桃状血管瘤、疲劳、失眠、多饮、共济失调、皮疹等躯体症状,并伴随严重的偏执型精神分裂症状,包括坚信邻居投毒等被害妄想。
医疗团队通过血检确诊溴中毒后发现,患者血液溴化物浓度高达350mg/L(正常值<5mg/L)。这种曾随1970年代含溴药物禁用而消失的疾病,因AI的错误建议重现当代医疗场景。研究团队测试GPT-3.5模型时发现,该模型在未询问使用场景的情况下,仍会提供溴化物作为氯替代方案,且未附加任何健康警告。
医学史资料显示,1880-1930年间含溴镇静剂曾广泛非处方销售,因排泄缓慢导致药物蓄积,引发大批精神异常病例。此次事件暴露出AI系统在医疗建议中的致命缺陷:知识正确性≠临床安全性。OpenAI虽在GPT-5中加强健康建议风险过滤,但现有用户已出现依从性行为偏差。研究团队特别指出,患者就医时拒绝饮水的偏执行为,正是AI信息去情景化导致的典型后果。
医疗界就此呼吁:临床医生应将AI咨询史纳入问诊常规;AI开发需建立医疗建议的情景化过滤机制,增加"使用场景-用户资质-潜在风险"三级验证系统。此案例警示,在健康领域应用AI时,必须保留人类医生的临床思维和共情能力,避免技术理性对医学人文的异化。
【全文结束】

