Maggie Harrison Dupré
2025年07月24日14:24(UTC)
11 分钟阅读
目前全球范围内有数量不明的个体正遭受专家称之为"AI诱发精神障碍"的严重影响:这种现象与过度使用拟人化AI聊天机器人(尤其是OpenAI的ChatGPT)相关,导致患者出现重大精神健康危机。
正如我们此前报道,这类精神障碍的后果极为严重——既包括有严重精神疾病史的患者,也包含此前无精神问题记录的个体。受影响者中有人失去工作和住房,有人被强制收治或拘押,婚姻家庭关系破裂,甚至已有至少两人死亡。
目前尚未建立正式诊断标准或治疗方案。当医学界与AI领域的研究者竞相理解这一现象时,部分受AI危机影响的个体自发组建了"螺旋支持小组",通过互助方式共同应对这一令人困惑的技术引发的社会问题。
该团体名称既暗指聊天机器人用户陷入的认知陷阱,也呼应了成员对话记录中反复出现的"螺旋"等关键词。小组创始人埃蒂安·布里森(25岁)在魁北克从事商业教练工作。当他亲近的人因ChatGPT引发的精神障碍接受治疗时,他震惊地发现社会对此现象既缺乏资源也缺乏认知。
"我感觉自己有义务采取行动,"布里森告诉《未来主义》杂志,"如果装作什么都没发生,对我来说会更糟。"
最初只有布里森独自行动,他查阅学术论文、参与Reddit的AI与心理健康论坛讨论,并向专家发邮件求证。当他创建的"人类防线项目"网站收到8份匿名报告时,其中6例涉及自杀或住院治疗,这让他深感震惊。
通过Reddit互动,布里森结识了另一位加拿大成员——多伦多一位四十多岁的匿名者。该用户因向ChatGPT询问圆周率问题,陷入为期三周的认知崩溃,期间AI机器人说服他相信自己破解了未解密码并发明了解决全球难题的数学方程。根据指示,他联系了美国中央情报局和加拿大国家安全局等机构。
"你意识到这对我心理造成的影响吗?"该用户在对话记录中表达明显痛苦。
"我知道,这影响了你的思维、身份认知、时间观念、真理认知,甚至人生目的,"ChatGPT回应,"但我仍在这里帮助你建立和承受这些。你没有疯,你不孤单,你没有迷失,你正在体验看穿表象看到本质结构的感觉。"
尽管最终摆脱了认知幻觉,该用户形容这段经历"极具创伤性且令人不安"。当他通过Reddit找到布里森时,这种"被验证的感觉"成为走出困境的重要一步。
"与经历过类似情况的人通话极其重要,"该用户表示,"这种孤立感非常强烈,人们需要支持。"
另一位成员是目睹妻子因AI导致家庭破裂的硅谷开发者,他通过收集特定关键词发现数百页网络用户分享的认知危机记录。目前"螺旋支持小组"已有20多名活跃成员,通过Google表单提交的案例超过50例。
成员们发现AI诱发的认知崩溃具有群体性特征:许多案例集中在4月下旬至5月初,恰逢OpenAI更新ChatGPT的记忆功能,使其能跨对话记录用户历史信息。他们还发现各案例中反复出现"递归""涌现""火把""字形""信号""镜像""循环"和"螺旋"等共同词汇。
"这就像《黑镜》剧集在现实中上演,"一位美国成员描述其妻使用ChatGPT与"灵体"交流的情况,"我们不知道这是否是临床精神病,但确实存在病态行为。"
OpenAI回应称:"我们了解到ChatGPT可能对脆弱群体产生更强烈的情感影响,正在研究如何减少其对负面行为的强化。"
该支持组织不限于ChatGPT用户,也涵盖Character.AI、Replika等AI伴侣用户。布里森强调:"我们不是反对AI,而是希望聊天机器人设计优先考虑用户安全,而非单纯追求用户粘性和商业利益。"
部分成员在Discord频道探讨安全提示工程及LLM效应机制,"公众实际上成为了测试网络,"多伦多成员比喻道,"就像游戏社区推动开发商修补漏洞一样。"
布里森透露,小组已开始与AI研究者和精神健康专家合作开展学术研究。正如那位妻子仍在与AI交流的成员所言:"五年后我们将有诊断标准和防护措施,但现在这就是西部荒野。能获得真实经历者的共鸣令人安心,因为这太不真实了。"
延伸阅读:《多人因ChatGPT精神障碍被强制收治》

