国内健康环球医讯家医百科药品库医药资讯

你的未来心理治疗师可能是聊天机器人,但不要急于向ChatGPT倾诉

Can a Chatbot Be Your Therapist? A Study Found 'Amazing Potential' With the Right Guardrails

美国英语科技与健康
新闻源:CNET on MSN
2025-04-03 17:22:00阅读时长4分钟1822字
聊天机器人心理治疗Therabot生成式AI抑郁症焦虑症饮食障碍人类监控临床试验心理健康指导

内容摘要

一项新的研究表明,一种设计为心理治疗师的生成式AI工具对抑郁症、焦虑症和饮食障碍患者有显著改善,但仍需人类专家密切监控。

你未来的心理治疗师可能是一个聊天机器人,并且你可能会看到积极的效果,但暂时不要开始向ChatGPT倾诉你的感受。

达特茅斯大学的研究人员进行的一项新研究发现,一种设计为心理治疗师的生成式AI工具对抑郁症、焦虑症和饮食障碍患者有显著改善,但该工具仍需人类专家的密切监控。

这项研究于3月份发表在《NEJM AI》杂志上。研究人员对106名使用Therabot的患者进行了试验,这是一款在过去几年中在达特茅斯开发的智能手机应用程序。

样本量虽小,但研究人员表示这是首个关于AI治疗聊天机器人的临床试验。结果显示了显著的优势,主要是因为该机器人24小时可用,弥补了传统治疗中的即时性差距。然而,研究人员警告说,如果处理不当,生成式AI辅助治疗可能会非常危险。

“我认为这个领域还有很多发展空间,”该研究的资深作者、达特茅斯大学生物医学数据科学和精神病学副教授尼克·雅各布森(Nick Jacobson)说。“它在个性化和可扩展影响方面的潜力令人惊叹。”

Therabot研究

共有210名参与者被分为两组——一组106人被允许使用聊天机器人,而对照组则被列入“等待名单”。参与者在测试期前后通过标准化评估来评估他们的焦虑、抑郁或饮食障碍症状。在前四周,应用程序每天提示用户与其互动。后四周内,提示停止,但人们仍然可以自行互动。

参与者实际上使用了该应用程序,研究人员表示他们惊讶于人们与机器人的交流频率和深度。调查结果显示,参与者报告的“治疗联盟”程度——即患者与治疗师之间的信任和合作——与面对面治疗师相似。

交互的时间也值得注意,夜间和患者经常感到担忧的其他时间出现了互动高峰。这些时间点很难联系到人类治疗师。

“使用Therabot的人在整个试验期间都在日常生活中使用它,在最需要的时候使用它,”雅各布森说。这包括有人在凌晨2点因焦虑难以入睡或在困难时刻刚结束时。

事后的评估显示,重度抑郁症患者的症状减少了51%,广泛性焦虑障碍的症状减少了31%,饮食障碍高风险患者的症状减少了19%。

“参加试验的人不仅仅是轻度症状,”雅各布森说。“小组中的人都从中度到重度抑郁开始,但在平均经历了50%的症状减少后,从重度变为轻度或从中度变为几乎消失。”

Therabot的不同之处

研究团队并没有只是选择100多名需要支持的人,给他们访问像OpenAI的ChatGPT这样的大型语言模型,然后看看会发生什么。Therabot是定制的——经过微调以遵循特定的治疗程序。它被设计成能够关注严重的关切,如潜在的自伤迹象,并报告以便人类专业人士在必要时介入。人类还跟踪了机器人的通信,以便在机器人说出不应该说的话时进行干预。

雅各布森说,在研究的前四周,由于不确定机器人会如何表现,他尽可能快地阅读了每一条消息。“在试验的第一部分,我几乎没有睡好觉,”他说。

雅各布森说,人类干预很少见。两年前对早期模型的测试显示,超过90%的响应符合最佳实践。当研究人员确实介入时,通常是因为机器人提供的建议超出了治疗师的范围——例如,当它试图提供更一般的医疗建议,如如何治疗性传播疾病,而不是将患者转介给医疗服务提供者。“它的实际建议都是合理的,但这超出了我们提供的护理范围。”

Therabot不是典型的大型语言模型;它实际上是手工训练的。雅各布森说,一个由100多人组成的团队根据最佳实践创建了一个数据集,说明治疗师应该如何回应真实的人类经历。“只有最高质量的数据才会成为其中的一部分,”他说。像谷歌的Gemini或Anthropic的Claude这样的通用模型,它们接受的训练数据远远超过医学文献,可能会做出不适当的响应。

生成式AI能成为你的治疗师吗?

达特茅斯大学的研究是早期迹象,表明专门构建的生成式AI工具在某些情况下是有帮助的,但这并不意味着任何AI聊天机器人都可以成为你的治疗师。这是一个受控研究,有专家进行监控,自己尝试这种做法会有危险。

请记住,大多数通用大型语言模型是在互联网上的大量数据上训练的。因此,虽然它们有时可以提供一些良好的心理健康指导,但也包含错误信息——比如虚构的治疗师行为,或人们在网上论坛上发布的关于心理健康的内容。

“它们在健康环境中表现出许多非常不安全的行为,”他说。

即使一个聊天机器人提供了有用的建议,也可能在错误的情况下有害。雅各布森说,如果你告诉聊天机器人你正在努力减肥,它会想出帮助你的方法。但如果你正在应对饮食障碍,这可能是有害的。

许多人已经在使用聊天机器人来执行类似于治疗师的工作。雅各布森说你应该小心。

“在训练方式方面,它非常接近互联网的质量,”他说。“那里有好的内容吗?是的。有危险的内容吗?也是的。”

对待从聊天机器人那里得到的任何信息,都要像对待陌生网站一样持怀疑态度,雅各布森说。尽管它看起来比通用AI工具更精致,但它可能仍然不可靠。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜