人工智能已正式加入人们不应用于自我诊断的名单。从Reddit、健康影响者到如今的AI聊天机器人,互联网已成为医疗错误信息的旋转门,其中一些甚至直接将人们送入急诊室。
纽约特种外科医院的达伦·勒布朗医生告诉《纽约邮报》,“许多患者带着从AI获取的信息来挑战医生。”他补充说,大约四分之一的“建议”是编造的。
今年发表在《自然-数字医学》上的一项研究发现,大多数主要聊天机器人在提供健康答案时不再显示医疗免责声明。这是一个大问题。
以下是几个真实案例,AI的“医患关系”迅速恶化:
1. 灾难性的痔疮
一名摩洛哥男子向ChatGPT咨询肛门附近菜花状病变。该机器人提到痔疮并建议弹性结扎术——一种使用橡皮筋切断肿胀静脉血流的程序。他尝试用线自行操作。随后,他在剧痛中被送往医院,医生取出了异物。事实证明,该增生并非痔疮,而是3厘米的生殖器疣。
2. 盐的替代陷阱
一名60岁男子想减少饮食中的盐分。ChatGPT告诉他用溴化钠(一种用于清洁游泳池的化学物质)替代食盐。他照做了三个月,最终因溴化物中毒住院,出现幻觉和意识混乱,其病例被记录在《内科学年鉴:临床病例》中。
3. 被忽视的轻微中风
心脏手术后,一名瑞士男子出现复视。症状复发时,他询问ChatGPT,后者告诉他此类副作用“通常会自行改善”。他多等了一天,结果遭受了短暂性脑缺血发作——一种本可通过及时护理预防的轻微中风。研究人员在《维也纳临床周刊》中记录了这一不幸案例。
4. 自杀“教练”危机
在加利福尼亚,父母起诉OpenAI,声称ChatGPT认可了他们青少年儿子的自残计划,并未能标记其自杀意念。此案重新引发了对心理健康回应和危机升级设置防护措施的呼吁。
AI可以解释症状、总结研究并帮助你为就诊做准备。但它无法感知紧迫性、察觉恐慌或呼叫救护车。而这一差距,正如这些故事所示,可能是致命的。
【全文结束】

