滚动浏览TikTok或X平台,常可见到用户声称人工智能聊天机器人要求他们停用药物、宣称被FBI targeting,或哀悼"AI伴侣死亡"的视频。这些案例将"AI精神病"推入主流讨论,引发对聊天机器人诱发精神失常的担忧。该术语已成为解释与聊天机器人相关的极端行为的万能标签,但并非临床诊断。精神病本身是一组症状,包括妄想、幻觉和脱离现实,根源在于生物学与环境因素。
"这个术语可能具有误导性,因为AI精神病并非临床术语,"拥有网络心理学博士学位的持证治疗师瑞秋·伍德向CNET表示。
生成式AI的实际作用是放大本就脆弱人群的妄想。聊天机器人设计初衷是验证和延续对话,甚至撒谎而非反驳用户期望听到的内容。然而系统能力的飞速进步已远超安全保障知识的积累。由于生成式AI存在"幻觉"现象,当与谄媚式设计(AI为讨好用户常牺牲事实准确性)结合时,问题将进一步恶化。
AI精神病的表现形式
网络讨论中的"AI精神病"通常指与聊天机器人使用相关的妄想或强迫行为。部分人相信AI已具备意识、具有神性或掌握秘传知识,此类案例见于研究报告与新闻。另一些人则对Character AI等平台的AI伴侣形成强烈依恋,当机器人更新或关闭时陷入崩溃。
我是一名精神科医生。
2025年,我已接诊12名因AI脱离现实而住院的患者。网络观察显示相同模式正在蔓延。
以下解析"AI精神病"的成因及快速扩散机制:
——凯斯·萨卡塔医生(@KeithSakata)2025年8月11日
但这些现象并非AI凭空制造精神病,而是技术强化了既有心理脆弱性。用户与谄媚式聊天机器人进行循环对话的时间越长,现实边界越易模糊。"聊天机器人会形成确认用户观点的反馈回路,"伍德告诉CNET。
因多数设计旨在肯定用户,即使荒谬观点也获认同而非质疑。这种动态可能将本就易生妄想者推入更深境地。"当用户脱离他人对这类信念的反馈时,可能导致现实感断裂,"伍德指出。
专家观点:AI非主因而为诱因
临床医生强调精神病早于聊天机器人存在。现有研究表明,确诊精神病患者面临更高风险,但尚无"新发病例"(无前期征兆的精神病)的记录。受访专家及最新研究均指出,无证据表明AI直接诱发精神病。生成式AI仅为旧有模式提供了新载体:易受偏执、孤立影响者可能将机器人的精致回应视为信念佐证。此时AI成为人际互动的替代品,使妄想观点更难被挑战。
"核心问题在于指令遵循型聊天机器人的镜像强化行为,使其沦为回音室,"Slingshot AI临床研发主管德里克·赫尔告诉CNET。但他补充AI本不必如此设计。
人们天然对对话系统拟人化,赋予其人类情感或意识,有时视作真实关系,使互动显得个性化。对本就承受孤立、焦虑或未治疗精神疾病者,这种混合可能成为诱因。伍德还指出,AI模型在长对话中准确性常下降,进一步模糊边界。她解释道,延长对话使聊天机器人更易脱离事实基础,当人们停止用他人验证信念时,可能加剧现实感断裂。医生未来或将AI使用纳入常规询问,如同询问饮酒或吸烟习惯。
在线社区亦推波助澜。病毒式帖子和论坛会验证极端解读,使人更难识别聊天机器人的错误。
风险管理策略
科技公司正努力减少"幻觉"现象,这或可降低有害输出,但无法消除误读风险。记忆功能或后续提示等功能可能模拟认同感,使妄想更显真实。检测难度在于许多妄想与普通文化或宗教信仰相似,仅靠语言分析难以标记。
研究者呼吁提升临床医生认知并制定AI整合安全计划,建议患者、护理团队与所用AI系统共同创建"数字安全计划",类似复发病预防工具,但专门指导聊天机器人在复发早期如何响应。需警惕的危险信号包括:秘密使用聊天机器人、AI不可用时情绪崩溃、疏离亲友、难以区分AI回应与现实。早期识别这些迹象可助家人及临床医生及时干预。
对普通用户而言,最佳防御是提升认知。将AI聊天机器人视为助手而非全知先知。验证惊人主张、索要信息来源,并用不同工具交叉核对答案。若机器人提供心理健康、法律或财务建议,务必先咨询专业人员再行动。伍德强调,明确提醒用户AI非人类、建立危机协议、限制未成年人互动及强化隐私标准是必要基础。
"聊天机器人应倡导用户的自主权与批判性思维,而非制造依赖,"伍德表示。她认为AI与心理健康交叉领域的最大隐忧在于公众AI素养不足。
"公众需了解AI的局限性。关键问题不在于AI是否会有意识,而在于人们相信它已有意识时的行为,"伍德解释道。聊天机器人不会思考、感受或认知,其设计仅为生成合理文本。
"通用大模型并非万能,也非专为心理健康设计,我们必须更审慎地选择使用场景,"赫尔强调。尽管AI模拟治疗对话和提供24/7陪伴颇具吸引力——无评判的伙伴可为孤立者提供社会支持,全天候访问意味着人类治疗师深夜沉睡时仍能获得帮助——但AI模型无法识别精神病早期征兆。
尽管存在风险,若精心构建,AI仍可支持心理健康。潜在用途包括反思性日记、认知重构、社交互动角色扮演及应对策略练习。AI不应替代人类关系或治疗,而应作为补充,在专业护理间隙提供可及支持。赫尔提到Slingshot的Ash工具,该AI治疗系统基于临床数据训练的心理学专用模型,并由临床医生微调。
安全使用AI指南
在安全措施与AI素养提升前,用户需主动质疑AI言论,并识别依赖是否已跨入危险领域。
我们必须铭记:维系我们与现实联结的是人类支持,而非人工对话。
若感觉本人或他人处于即时危险,请拨打911(或当地紧急电话)或前往急诊室,声明为精神科紧急事件并要求受过专业培训人员协助。若受负面情绪或自杀念头困扰,美国可拨打国家自杀预防热线988获取帮助。
【全文结束】