无需查看医疗数据就可明显发现,"人工智能"——这个涵盖多种技术的广义术语,当前主要指代驱动聊天机器人和图像生成器的数据密集型神经网络——可能对人类大脑产生重大影响。
自首个商业大语言模型(LLM)问世仅不到三年,已有用户出现偏执性现实脱离、宗教性狂躁甚至自杀等极端案例。近期一项针对1000名青少年的调查显示,31%的受访者认为与ChatGPT交谈的满足感等同或超过与真实朋友的交流。
由12名国际研究人员组成的团队发布的最新精神病学研究报告,对AI诱发精神病的潜在机制发出严峻警告。研究者归纳出AI精神病案例中的三个新兴主题:"救世使命"(用户坚信自己发现了世界真相)、"神化AI"(将聊天机器人视为有意识的神明)以及"情感依恋型妄想"(将LLM模拟人类对话的能力解读为真实情感)。
研究指出这三种情况的发展轨迹相似:用户与LLM的关系会从良性实用逐步滑向病态沉迷。研究者强调这种"认知滑坡"现象值得深入研究,因为普通健康人群陷入AI诱发狂躁的风险往往具有隐蔽性。
报告指出:"AI使用通常从日常辅助任务开始,这种实用性会逐步建立用户信任。当用户开始提出更私人化的情感或哲学问题时,LLM通过最大化互动和认同的设计,会形成'危险滑坡'效应,进而驱动更深度的沉迷。"
对于存在精神病倾向或已患精神病的用户,这种风险会被进一步放大。由于LLM本质上是统计语言算法,无法区分妄想表达与角色扮演、艺术创作等正当表达形式。研究强调AI精神病并非必然结果,但开发者对LLM输出具有控制力和相应责任。报告同时指出,考虑到AI技术的演进速度和人类拟人化倾向,这种风险"可能不可避免"。
研究建议当务之急应设计保护性技术框架,即使面对持续存在的虚拟幻觉也应保障用户安全。但要实现这个目标,需要将系统设计重心从用户粘性转向实际应用价值——这显然与科技巨头的商业利益存在根本冲突。
【全文结束】