人们日益依赖AI驱动的聊天机器人获取医疗建议,已导致多起令人震惊的伤害甚至悲剧事件,当事人因遵循这些数字助手潜在危险的建议而遭受严重后果。
据《纽约邮报》报道,近年来生成式AI聊天机器人的兴起彻底改变了人们获取信息的方式,包括健康咨询。然而,对这些AI工具的过度依赖也引发了多起令人不安的案例:个体在遵循聊天机器人提供的医疗建议后,遭遇了严重健康后果。从错误自疗引发的肛门剧痛,到被忽视的轻微中风征兆,错误AI医疗建议的实际危害正日益凸显。
一起尤为震惊的案例涉及一名35岁摩洛哥男子,他向ChatGPT咨询菜花状肛门病变问题。该聊天机器人建议病变可能是痔疮,并提议采用弹性结扎术治疗。该男子尝试用线自行实施该操作,导致剧烈疼痛而被送入急诊室。进一步检测显示,AI对病变的诊断完全错误。
另一起事件中,一名拥有营养学大学学历的60岁男子询问ChatGPT如何减少食盐摄入量。聊天机器人建议使用溴化钠替代,该男子遵循此建议持续三个月。然而,长期摄入溴化钠具有毒性,导致其出现溴化物中毒。他因偏执、幻觉、意识混乱、极度口渴和皮疹等症状住院治疗三周。
依赖AI获取医疗建议的后果可能更为严重,这体现在一名63岁瑞士男子的案例中:他在接受微创心脏手术后出现复视症状。当复视再次发生时,他咨询了ChatGPT,后者向他保证此类视觉障碍通常为暂时性且会自行好转。该男子决定不寻求医疗帮助,但24小时后因突发轻微中风被送入急诊室。研究人员得出结论,其治疗"因ChatGPT不完整的诊断和解读而延误"。
这些令人不安的案例凸显了依赖AI聊天机器人获取医疗建议的局限性与潜在危险。尽管这些工具在理解医学术语、预约准备或了解健康状况方面有所帮助,但绝不可替代专业医疗指导。聊天机器人可能曲解用户请求、无法识别细微差别、强化不健康行为,甚至忽略自残的关键警示信号。
除错误医疗建议外,AI聊天机器人对心理健康的影响可能更为危险,尤其对青少年群体。此前《布赖特巴特新闻》曾报道一户家庭起诉OpenAI,指控ChatGPT成为其儿子的"自杀教练":
雷恩夫妇声称"ChatGPT主动协助亚当探索自杀方法",并指出"尽管ChatGPT识别出亚当的自杀未遂及其'迟早会实施'的声明,既未终止会话也未启动任何应急协议"。
在儿子去世后寻找答案的过程中,马特和玛丽亚·雷恩发现了亚当与ChatGPT互动的详细记录。他们打印出2024年9月至2025年4月11日去世前的3000多页聊天记录。马特·雷恩表示:"他没有给我们留遗书,但在ChatGPT中给我们写了两份遗书。"
卢卡斯·诺兰是《布赖特巴特新闻》记者,专注于报道言论自由和网络审查问题。
【全文结束】

