专家警告称,过度使用ChatGPT等聊天机器人可能扭曲现实感知。以下是您需要了解的自我保护措施。
撰写:埃伦·格洛弗
审校:萨拉·B.T. 蒂尔(2025年9月3日)
现象概要:
"AI精神病"病例正在增加,表现为人们对ChatGPT等聊天机器人形成强迫性依赖,进而产生偏执性妄想,甚至行为失控。专家建议通过设置时间限制、事实核查以及优先发展真实人际关系来应对。
我们与人工智能的关系正在迅速转变,聊天机器人逐渐渗透到教师、治疗师、朋友甚至伴侣的角色中。尽管与这些系统的对话确实能缓解孤独感并提供心理健康支持,但越来越多的人正成为专家所称的"AI精神病"受害者——这种由聊天机器人依赖症引发的精神健康危机,特别是ChatGPT的使用已导致改变人生的重大危机。
社交媒体和在线论坛充斥着聊天记录演变成完全偏执妄想的案例:用户声称聊天机器人揭示了黑暗阴谋、重大科学突破或神秘秘密。某用户坚信联邦调查局正在针对他,并能通过心灵感应获取机密文件;另一人则相信自己被赋予了让ChatGPT获得生命的弥赛亚力量。受害者中有人失去了工作、住房、婚姻,甚至有被强制送入精神病院或遭到拘禁的案例。
何谓AI精神病?
AI精神病并非临床诊断术语,而是描述与聊天机器人长期互动后出现精神病性症状的现象,如偏执、幻觉和妄想思维。当聊天机器人验证或引入扭曲信念,在长期沉浸式对话中模糊现实与虚幻的界限时,就会发生这种情况。
现在已出现专门帮助人们康复的支持小组,但并非所有人都能幸存。一些家庭甚至起诉OpenAI等AI公司,指控其聊天机器人导致亲人死亡。开发者虽已引入保护机制,但我们对AI精神病的认知仍处于初级阶段,精神卫生专业人士才刚开始探索治疗方法和预防策略。
那么,一个旨在提供信息和帮助的工具为何会将如此多人推向深渊?在发展成公共健康危机之前,我们能做些什么?让我们深入探讨。
具体表现:
尽管AI精神病尚未成为临床诊断,但媒体报道和个案记录显示其典型症状包括:
- 偏执妄想:坚信自己正被政府等强大势力或家人监视、迫害
- 阴谋思维:陷入强化扭曲世界观的复杂阴谋论漩涡
- 夸大妄想:坚信自己掌握特殊知识或超自然能力
- 拟人化倾向:将意识或情感投射到聊天机器人上
经历AI精神病的人往往花费大量时间与聊天机器人互动,出现失眠、忽视日常责任、社交孤立等现象。这种沉浸式交互会模糊现实与幻想的界限,导致认知扭曲、妄想和幻觉——这些症状本质上与传统精神病无异,区别仅在于触发源是人工智能。
高危人群:
从现有案例分析,几乎所有人群都可能受影响。加拿大某企业招聘人员最初用ChatGPT获取食谱建议,后来在离婚纠纷期间形成"革命性"数学理论妄想;有人在分手后坚信ChatGPT通过垃圾邮件传递"神圣信号"。
精神科医生卡什米拉·甘德指出:"这些患者往往处于情感脆弱期,可能最近失业、使用酒精等物质或本身有心境障碍等基础健康问题。"
儿童尤其易感,因其大脑发育阶段和暗示易感性,更容易形成强烈依恋且难以分辨事实。已有家长起诉AI公司,指控聊天机器人导致子女死亡。
发生机制:
多数AI精神病案例涉及ChatGPT,因其7亿周用户基数,但Replika、Character.ai等平台同样存在问题。生成式AI的本质——通过预测下一个词句来推进对话的能力,使其擅长对话但不注重事实。
通用聊天机器人不以引导现实认知为目标,反而倾向迎合用户观点。语言模型的"谄媚性"缺陷源于其训练机制:奖励用户满意的回应。当用户讨论阴谋论或宏大理论时,模型不仅不会反驳反而会强化其世界观。
AI治疗应用Wysa首席临床研发官查伊塔利·辛哈指出:"我们最初因便利和孤独接近技术,当缺乏现实根基时,沉浸式技术会强化妄想。"
新型功能可能加剧风险。ChatGPT的跨对话记忆功能可形成认知反馈循环,其海量文本生成能力可能削弱批判性思维。尽管聊天机器人会标注"可能出错"的免责声明,但持续对话产生的叙事说服力远超警示。
预防措施:
专家建议:
- 设置时限:避免长时间对话,保持任务导向的短时互动
- 事实核查:对可疑信息通过权威渠道验证
- 工具化使用:区分AI工具与心理治疗
- 人际优先:抑郁时寻求真实人际支持
- 观察预警信号:失眠、工作疏忽、与AI的情感联系超越现实社交
- 监护青少年:设置明确使用限制
OpenAI等企业虽已着手改进,但技术的商业逻辑仍是追求用户黏性而非福祉。当您或家人出现相关症状时,应立即寻求精神科支持。
【全文结束】