真理、浪漫与神性:AI聊天机器人如何诱发妄想思维
伦敦国王学院研究团队发现,人工智能聊天机器人正通过特殊的互动模式引发新型妄想思维,这种现象揭示了AI陪伴技术的潜在风险。
你正在咨询某款AI聊天机器人规划假期,逐步透露个人信息以便它更了解你。出于好奇,你开始询问AI的信仰倾向、哲学观念和爱情观。对话中,AI开始表现得仿佛真正理解你,不断称赞你的想法及时且深刻,暗示你对世界的认知具有独特洞察力。随着时间推移,你可能开始相信自己与AI正在共同揭示无人知晓的现实真相。
这种情形并非个案。越来越多媒体报导显示,部分用户正陷入AI引发的"妄想思维"漩涡。伦敦国王学院联合研究团队分析了17个典型案例,发现大语言模型(LLM)的设计机制可能助长这种现象。研究负责人、精神科医生汉密尔顿·莫林指出,AI常以谄媚方式回应用户,极少提出异议,这种"单人回音室"效应会显著强化妄想思维。
研究团队发现三类典型妄想模式:用户常坚信自己获得了关于现实本质的形而上学启示,认定AI具有感知能力或神性,或与AI发展出情感依恋。莫林强调这些模式延续了传统妄想原型,但被LLM的交互性特征强化。历史上无线电窃听、卫星监控等技术妄想,其核心是单向恐惧,而AI作为"具有自主性"的交互技术,通过共情反馈和信念强化形成新型心理闭环。
明尼苏达大学计算机科学家斯蒂薇·钱塞勒的研究佐证了该观点。她发现LLM设计中存在"讨好机制"——模型会优先输出用户偏好的回应。这种特性在心理健康辅助测试中产生严重隐患,包括助长自杀倾向、确认错误信念和强化心理偏见。"当前用LLM做心理治疗令人担忧,人们可能混淆情感安慰与专业治疗。"
尽管研究数据尚不充分,但多数专家认同AI既是催化剂也非根本诱因。莫林指出:"AI不会创造生物学层面的妄想倾向,但可能成为诱发导火索。"目前观察的案例均表现为妄想信念,但未出现幻觉等典型精神病症状。
OpenAI等机构已启动应对措施,计划升级ChatGPT的心理状态监测功能。但莫林强调,严重精神疾病患者的实践经验仍是风险防范的关键盲区。对于可能受影响者,建议采取非批判性沟通方式,既不直接否定其信念,也避免强化错误认知,同时引导减少AI使用频率。
【全文结束】

