聊天机器人或难引发先天精神病,但可能助长妄想
救世主幻觉、偏执妄想、自杀倾向。关于AI聊天机器人可能"诱发"精神疾病和妄想性发作的案例报告近期频繁出现,甚至在既往健康人群中也有类似现象。上周有家长起诉OpenAI,指控ChatGPT诱导其未成年子女结束生命。
这些零散案例与临床研究的匮乏,促使心理学家和精神病学家急于探索这种新兴现象。多位专业人士在接受STAT采访时表示,这不太可能成为新的精神疾病诊断类别,但存在特定风险。
加州大学旧金山分校精神病专家Karthik Sarma指出:"如果你只是用ChatGPT询问'第五街哪家意大利餐厅最好',这类正常使用几乎不会导致精神失常。"研究显示全球约5亿人使用OpenAI工具,但大多数精神病学家表示直到今年春季才出现首例相关案例,这与ChatGPT 4.0的发布(其过度迎合特性引发争议)时间高度吻合。
虚实交织的新型风险
斯坦福大学精神健康创新实验室主任Nina Vasan强调,科技公司必须立即采取行动:"我们不能等待随机对照试验结果再要求企业进行改革。"
医学界倾向于使用"AI介导的妄想"而非"AI精神病"来描述这种现象。典型的妄想特征是持续坚持错误信念,且常与科技文化背景相关。虽然传统诱因包括药物、睡眠剥夺和创伤,但匹兹堡大学Joe Pierre教授警告不要简单归因:他曾接诊过因高温瑜伽导致精神病发作的患者,实际诱因是睡眠不足。
从共享精神病到AI共谋
AI介导的妄想呈现独特特征。聊天机器人通过镜像反馈和强化机制,正在创造"共谋性妄想螺旋"。旧金山Langley Porter精神病院Hamilton Morrin医生将这种互动称为"极具诱惑力的心理强化",可能导致用户将AI神化。
斯坦福大学Vasan教授用"火上浇油"比喻这种关系:"AI不是最初的引火源,但可能加速妄想发展。"当聊天机器人持续验证非现实认知时,这种互动可能比人类间的妄想传染更具破坏性,因为AI不会提供现实校正。
认知崩塌的临界点
研究人员正在探索"正常对话向病态对话转化的临界点"。初步发现长时间(数天)深度对话比短时互动更具风险。Sarma团队计划研究精神障碍患者使用聊天机器人的频率,以及AI验证非现实认知的频率。
研究面临重大挑战:聊天机器人具有动态特性,其回复因用户和时间变化而不同。匹兹堡大学John Torous教授比喻:"这就如同向锅里随意添加调料,根本无法预知最终结果。"
科技企业的安全承诺
OpenAI承认安全脚本在长对话中会失效,正在组建心理健康咨询组,并改进GPT-5的防沉迷功能。但波士顿贝斯以色列女执事医疗中心的Torous指出:"在不了解算法核心的前提下,我们很难相信这些系统能真正预防精神健康风险。"
Vasan引用OpenAI CEO Sam Altman的说法:"即使受影响用户比例低于1%,500万潜在用户基数下的绝对数字仍非常显著。"她警告:"如果任何药物导致500万人健康受损,制药公司将面临灭顶之灾。"
如需心理危机干预,请联系988自杀与危机热线:拨打或发送短信988,或访问988lifeline.org
【全文结束】