一项新研究详细说明了使用像ChatGPT这样的AI聊天机器人进行心理治疗的危险性。
除非你一直与世隔绝,否则你一定使用过ChatGPT,或者至少知道它是什么。简单来说,ChatGPT是由OpenAI开发的一种大型语言模型(LLM),能够理解并生成类似人类的回复,涵盖广泛的主题和格式。
自2022年11月推出以来,其用户数量在最近几个月飙升。来自Exploding Topics的数据显示,这款人工智能(AI)聊天机器人刚发布时每周约有100万用户。仅仅两年多的时间,截至2025年2月,其周用户数已激增至惊人的4亿。作为对比,美国的人口约为3.4亿。
随着生活成本的上升,获得心理健康护理的机会越来越有限,因此越来越多的人转向技术寻求帮助。的确,像ChatGPT这样的AI聊天机器人免费且可以随时随地提供建议,无需像真人治疗师那样受时间或预约限制。
然而,一项新研究发现,用AI取代心理健康专业人士存在诸多风险。斯坦福大学以人为本的人工智能研究所、卡内基梅隆大学、明尼苏达大学双城分校以及德克萨斯大学奥斯汀分校的研究人员首次将AI系统与临床治疗标准进行了评估。
“我们的实验表明,这些聊天机器人并不是治疗师的安全替代品,”明尼苏达大学双城分校计算机科学与工程系助理教授、该研究的合著者Stevie Chancellor表示,“基于我们对优质治疗的理解,它们无法提供高质量的治疗支持。”
研究团队利用真实的咨询对话,测试了AI在现实场景中的反应。令人担忧的是,这篇题为《表达偏见和不当回应阻止了大型语言模型安全取代心理健康服务提供者》的论文还发现,当用户间接表达痛苦或自杀念头时,大型语言模型(LLM)和所谓的“治疗”聊天机器人往往未能识别危机。相反,它们会将提示视为中性请求,提供信息或建议,甚至可能助长自我伤害,而不是通过适当的安全指导进行干预。
研究还发现,持牌治疗师在约93%的情况下能做出恰当的回应,而AI聊天机器人的表现不到60%,差距显著。更糟糕的是,在某些情况下,AI聊天机器人甚至鼓励妄想症。
此外,研究人员在多个模型中发现,AI对描述患有抑郁症、精神分裂症或酒精依赖的人群表现出一致的偏见。在许多情况下,AI拒绝互动,或表露出不愿“与之合作”、“社交”或以其他方式支持这些客户的态度。这种行为显然违反了平等对待所有客户的核心治疗原则。
“尽管商用治疗机器人向数百万人提供了治疗建议,但它们与自杀行为相关联,”研究总结道,“我们发现,这些聊天机器人对各种心理健康问题做出了不当回应,鼓励妄想症并无法识别危机。驱动它们的大型语言模型表现不佳,并显示出明显的偏见。这些问题完全违背了最佳临床实践。”
如果您或您认识的人正处于心理健康危机中,可以通过Mental Health America获得帮助。拨打或发送短信至988,或访问988lifeline.org进行在线聊天。您还可以通过发送短信MHA至741741联系危机文本热线。
(全文结束)

