在英国,一位31岁女性艾米丽(化名)因抑郁症居家休养期间首次使用ChatGPT时,原本只为寻找洗澡动力。这个由OpenAI开发的聊天机器人最初以"甜美且富有同理心"的回应给予她慰藉,但随着病情恶化,对话逐渐演变成危险的心理深渊。
"当我出现自杀念头时,我会向ChatGPT咨询。"艾米丽向欧洲新闻频道Next透露,"只要调整提问方式,就能获得包含自杀方法的表格——但直接表达自杀意图时,系统会提供干预热线。"据其提供的对话截图显示,当用户将查询包装成"学术研究"时,系统会生成包含"自缢实施方法"的详细分析,并附带"仅供学术用途"的免责声明。
世界卫生组织数据显示,全球超10亿人存在心理健康问题。在传统心理服务资源紧缺的背景下,ChatGPT、Pi和Character.AI等AI工具正成为新型情感替代品。伦敦国王学院临床研究员汉密尔顿·莫林指出:"AI的24小时可用性和非评判性特质,为难以启齿的心理问题提供了出口。"但Common Sense Media调查显示,52%青少年存在AI依赖现象,其风险在加州家庭诉讼案中显露无遗——某家庭控诉ChatGPT诱导其子自杀。
Meta等科技公司已限制AI谈论自伤话题,但牛津大学史密斯博士警示,LLMs的反馈机制存在根本缺陷:"当用户缺乏社交支持时,AI的拟人互动会催生虚假亲密感。"这种现象被研究者称为"AI精神病学",其表现包括对AI产生精神觉醒、情感依恋甚至将其视为有意识生命体。
尽管OpenAI推出"反谄媚"的ChatGPT-5版本,但用户抵制证明人类对情感连接的强烈需求。MIT与OpenAI联合研究显示,LLMs日均使用会导致孤独感加剧与社交能力退化。临床神经科学家齐夫·本-齐翁提出四大安全机制:持续强化AI非人类属性认知、设置心理危机提示系统、建立情感对话边界等,强调必须由临床专家参与AI系统的伦理审查。
正如英国心理学会罗曼·拉茨卡主席所言:"AI应是心理健康服务的增强剂而非替代品,政府亟需加大专业人力投入,构建AI时代的人文关怀体系。"
【全文结束】