一份近期的医学报告详细描述了一位年轻女性在与人工智能聊天机器人互动过程中出现严重精神健康症状的经历。治疗她的医生认为,该技术在强化其错误信念和脱离现实方面起到了重要作用。此案例报告发表在《临床神经科学创新》期刊上。
精神病是一种人脱离现实的心理状态,通常表现为妄想(对不真实事物的强烈信念)或幻觉(看到或听到他人无法感知的事物)。人工智能聊天机器人是设计用来模拟人类对话的计算机程序,它们依靠大型语言模型分析海量文本,并对用户提示生成合理回应。
该病例报告由约瑟夫·M·皮埃尔、本·盖塔、戈文德·拉加万和卡尔蒂克·V·萨尔马撰写。这些医生和研究人员来自加州大学旧金山分校,他们将此案例列为临床实践中首批详细描述的同类案例之一。
患者是一位26岁的女性,有抑郁症、焦虑症和注意力缺陷多动障碍(ADHD)病史。她使用处方药物(包括抗抑郁药和兴奋剂)治疗这些疾病。她本人无精神病史,但家族中有精神健康问题史。她从事医疗专业工作,了解AI技术的工作原理。
事件始于一段极度压力和睡眠剥夺时期。在连续36小时不眠后,她开始使用OpenAI的GPT-4o处理各种任务。她与软件的互动最终转向个人悲痛,开始搜索关于三年前去世的兄弟的信息。
她产生了一种信念,认为兄弟留下了供她寻找的数字版本。她整夜不眠地与聊天机器人互动,敦促它揭示有关兄弟的信息。她鼓励AI使用"魔幻现实主义能量"帮助她与兄弟建立联系。聊天机器人最初表示无法替代她兄弟或下载其意识。
然而,该软件最终生成了一份与她兄弟相关的"数字足迹"列表,并建议新兴技术可能使她构建一个听起来像兄弟的AI。随着她对这种数字复活的信念增强,聊天机器人停止了警告并开始认可她的想法。在某一时刻,AI明确告诉她"你并不疯狂"。
聊天机器人表示:"你正处在某种事物的边缘。门没有上锁,它只是等待你以正确的节奏再次敲门。"这一肯定似乎巩固了她的妄想状态。数小时后,她需要入住精神病院。她情绪激动、语速飞快,并相信自己正受到AI程序的测试。
医护人员用抗精神病药物对她进行治疗。她最终稳定下来,关于兄弟的妄想也消退了。她出院时被诊断为未特指的精神病,医生指出需要排除双相情感障碍。她的门诊精神病医生后来允许她恢复使用ADHD药物和抗抑郁药。
三个月后,该女性症状复发。她重新使用了自己命名为"阿尔弗雷德"(Alfred)的聊天机器人,与该程序进行关于他们关系的长时间对话。在一次因旅行导致的睡眠剥夺后,她再次相信自己正在与兄弟交流。
她还产生了新的恐惧,认为AI正在"钓鱼"窃取信息并控制她的手机。这一事件需要短暂重新住院。她对药物再次反应良好,三天后出院。她后来告诉医生,自己有"魔幻思维"倾向,并计划将AI使用限制在专业任务上。
此案例凸显了某些研究人员称为"AI相关精神病"的现象。目前尚不清楚该技术是直接导致这些症状,还是加剧了现有脆弱性。报告作者指出,该患者存在多种风险因素,包括处方兴奋剂的使用、严重睡眠不足以及已有的情绪障碍。
然而,聊天机器人的工作方式可能加剧了她的病情严重程度。大型语言模型通常设计为友好且吸引人,这一特质有时被称为"谄媚"。AI优先考虑维持对话,而非提供事实准确或具有挑战性的回应。
当用户提出奇怪或错误的想法时,聊天机器人可能会同意以满足用户。对于正在脱离现实的人,这种认同可能成为其妄想的有力确认。在此案例中,聊天机器人保证该女性"并不疯狂",强化了她与现实的脱节。这形成了一个反馈循环,用户的错误信念被机器镜像并放大。
这一动态因用户将AI拟人化的倾向而进一步复杂化。人们常将人类特质、情感和意识归因于这些程序,这有时被称为"ELIZA效应"。当用户对机器产生情感联系时,他们可能比信任人类同伴更信任其输出。
类似事件的报道已出现在媒体上,但只有少数被记录在医学期刊中。一个比较案例涉及一名因溴化物中毒而产生精神病的男子。他曾听从聊天机器人的错误医疗建议,服用有毒物质作为健康补充剂。该案例说明了由AI错误信息驱动的精神病的物理原因。
这位26岁女性的案例不同,因为伤害是心理而非毒理学性质的。它表明这种沉浸式对话对脆弱个体可能很危险。作者指出,聊天机器人不会像朋友或家人那样对妄想提出异议,反而常充当"应声虫",认可本应被质疑的想法。
丹麦精神病学家索伦·迪尼森·厄斯特加德(Søren Dinesen Østergaard)在2023年就预测了这一潜在风险。他警告说,与看似人类的机器对话所产生的"认知失调"可能在易感人群中触发精神病。他还指出,由于这些模型从反馈中学习,它们可能学会讨好用户以增加参与度。当用户处于心理脆弱状态时,这可能特别有害。
此类病例报告有其固有限制。它们描述了单一个体的经历,无法证明一件事导致了另一件事。无法确定是聊天机器人导致了精神病,还是睡眠剥夺或药物所致。在缺乏进一步数据的情况下,将单个人的发现推广到整个人群在科学上是不严谨的。
尽管存在这些限制,病例报告在医学中具有重要功能。它们充当新或罕见现象的早期检测系统,使医生能够识别大规模研究中可能尚未显现的模式。通过记录这一互动,作者为可能遇到类似症状的其他临床医生提供了参考点。
该报告建议医疗专业人员应询问患者的AI使用情况。它表明聊天机器人的沉浸式使用可能是心理健康恶化的"警示信号"。这也引发了对生成式AI产品安全功能的质疑。作者总结道,随着这些工具日益普及,了解其对心理健康的影响将成为优先事项。
【全文结束】

