在2025年,ChatGPT成为了最受欢迎的AI工具之一,每月有47亿次访问。据OpenAI首席执行官Sam Altman透露,不同年龄段的人们使用ChatGPT的方式也有所不同。例如,老年人将它作为谷歌的替代品,而二三十岁的人则将其视为生活顾问,大学生则将其视为操作系统。
实际上,很多人正在通过AI寻求生活建议。根据哈佛商业评论的一篇文章,作者兼Filtered.com联合创始人Marc Zao-Sanders最近完成了一项关于人们如何使用AI的定性研究。“心理治疗/陪伴”是人们使用生成式AI最常见的用途,其次是生活组织和寻找人生目标。据OpenAI的技术巨头称,生成的生活建议可以产生非常强大的影响。
皮尤研究中心上个月发布的一项调查显示,大多数受访的AI专家表示,美国民众每天与AI互动多次,甚至几乎是持续不断的。大约三分之一的受访美国成年人表示他们曾经使用过聊天机器人(包括ChatGPT等)。
一些技术创新者,如达特茅斯学院的研究人员,正在顺应这一趋势。达特茅斯的研究人员完成了一项首次针对生成式AI驱动的治疗聊天机器人的临床试验。这款名为Therabot的智能手机应用程序自2019年以来一直在开发中,其最近的试验显示了希望。
共有100多名患者参与了这项实验,他们分别患有抑郁症、广泛性焦虑障碍或进食障碍。根据高级研究作者Nicholas Jacobson的说法,每位患者的症状改善程度与传统门诊治疗相当。“虽然没有什么可以替代面对面的护理,但目前根本没有足够的提供者来满足需求。”他告诉达特茅斯学院。然而,即使是达特茅斯的Therabot研究人员也表示,生成式AI还没有准备好完全自主地用于心理健康领域。
“虽然这些结果非常有希望,但没有一个生成式AI代理已经准备好在心理健康领域完全自主运行,在那里可能会遇到非常广泛的高风险情况,”第一研究作者Michael Heinz告诉达特茅斯学院。“我们仍然需要更好地了解和量化生成式AI在心理健康背景下的风险。”
为什么AI还没有准备好成为任何人的心理治疗师?
RCSI医学与健康科学大学的Ben Bond是一位数字精神病学博士候选人,他研究数字工具如何能够受益或更好地理解心理健康。他在《对话》杂志上撰文,详细解释了像Therabot这样的AI治疗工具可能带来的一些重大风险。
其中,Bond解释说,AI的“幻觉”是当今聊天机器人服务中的已知缺陷。从引用不存在的研究到直接提供错误信息,他说这些幻觉对寻求心理健康治疗的人来说可能是危险的。
“想象一下,聊天机器人误解了一个提示并验证了某人自我伤害的计划,或者提供了无意中强化有害行为的建议,”Bond写道。“虽然Therabot和ChatGPT的研究包括了保障措施——如临床监督和专业输入——但许多商业AI心理健康工具并没有提供同样的保护。”
心理学家Michael Best博士也在《今日心理学》上撰文表示,还有其他需要考虑的问题。“隐私是一个紧迫的问题,”他写道。“在传统的环境中,保密性受到职业规范和法律框架的保护。但对于AI来说,尤其是基于云或连接到更大系统时,数据安全变得更加复杂。”
Best补充说,偏见也是一个重要问题,这可能导致AI治疗师给出糟糕的建议。“AI系统从它们训练的数据中学习,这些数据往往反映了社会偏见,”他写道。“如果这些系统被用来提供治疗干预,就有可能无意中强化刻板印象或为边缘化社区提供不准确的支持。”
研究人员正在努力改进AI治疗服务。在达特茅斯的Therabot实验中,患有抑郁症的患者症状平均减少了51%。对于那些患有焦虑症的患者,症状平均减少了31%。患有进食障碍的患者症状减少最少,但仍平均减少了19%。
未来可能会有一天,人工智能可以被信任用于治疗心理健康问题,但根据专家的说法,我们现在还没有达到那个阶段。
(全文结束)

