聊天机器人能否成为你的治疗师?研究发现其在适当监管下具有“巨大潜力”Can a Chatbot Be Your Therapist? A Study Found 'Amazing Potential' With the Right Guardrails

环球医讯 / AI与医疗健康来源:www.yahoo.com美国 - 英语2025-04-03 17:00:00 - 阅读时长5分钟 - 2157字
达特茅斯大学的研究人员开发的一款名为Therabot的生成式AI工具,在治疗抑郁症、焦虑症和饮食障碍方面显示出显著效果,但需要在人类专家的密切监督下使用。
聊天机器人心理健康护理Therabot抑郁症焦虑症饮食障碍生成式AI人类专家监控临床试验治疗潜力
聊天机器人能否成为你的治疗师?研究发现其在适当监管下具有“巨大潜力”

使用生成式AI聊天机器人进行心理健康护理存在风险,但达特茅斯大学研究人员设计的一种工具显示出了希望。

你未来的治疗师可能是一个聊天机器人,并且可能会带来积极的效果,但目前还不建议你向ChatGPT倾诉心声。

一项由达特茅斯大学研究人员进行的新研究表明,一种被设计为治疗师的生成式AI工具对患有抑郁症、焦虑症和饮食障碍的患者带来了显著改善——但仍需受到人类专家的严格监控。

该研究于3月份发表在《NEJM AI》期刊上。研究人员对106名使用Therabot智能手机应用的人进行了试验。这款应用在过去几年中由达特茅斯大学开发。

虽然样本数量较小,但研究人员表示这是首次对AI治疗聊天机器人进行临床试验。结果显示了显著的优势,主要是因为该聊天机器人可以全天候提供服务,从而弥补了传统疗法在即时性方面的不足。然而,研究人员警告说,如果生成式AI辅助疗法操作不当,可能会非常危险。

“我认为这个领域还有很多发展的空间,”该研究的资深作者、达特茅斯大学生物医学数据科学和精神病学副教授Nick Jacobson说道。“它在个性化和规模化影响方面的潜力确实令人惊叹。”

Therabot研究

210名参与者被分为两组——一组106人被允许使用聊天机器人,而对照组则被列入“等待名单”。参与者在测试前后通过标准化评估来评估他们的焦虑、抑郁或饮食障碍症状。在前四周,应用程序每天都会提示用户与其互动。在接下来的四周内,提示停止,但人们仍可自行互动。

实际上,参与者确实使用了该应用程序,研究人员对其使用的频率和程度感到惊讶。在后续调查中,参与者报告了类似于面对面治疗师的信任和合作水平。

互动的时间也值得注意,特别是在夜间和其他患者经常感到困扰的时候,这些时候很难联系到人类治疗师。

Jacobson说:“使用Therabot的人们在整个试验期间在日常生活中会访问它,特别是在他们最需要的时候。”这包括凌晨2点因焦虑难以入睡或在经历困难时刻后立即使用的情况。

参与者的评估显示,对于重度抑郁症患者的症状下降了51%,广泛性焦虑障碍的症状下降了31%,饮食障碍高风险患者的症状下降了19%。

Jacobson说:“参与试验的人不仅仅是轻度患者。例如,抑郁组中的患者开始时病情从中度到重度不等,但在平均情况下,他们的症状减少了50%,从重度降至轻度或中度,甚至接近消失。”

Therabot的不同之处

研究团队并没有简单地选择100多名需要支持的人,让他们访问像OpenAI的ChatGPT这样的大型语言模型并观察结果。Therabot是专门定制的——经过微调以遵循特定的治疗程序。它被设计成能够识别严重的关切,如潜在的自伤迹象,并报告以便人类专业人士在必要时介入。人类还跟踪了机器人的通信,以便在机器人说出不应说的话时进行干预。

Jacobson说,在研究的前四周,由于不确定机器人的行为,他尽快阅读了每一条消息。“在试验的第一部分,我几乎没有怎么睡觉,”他说。

Jacobson说,人类干预很少见。两年前对早期模型的测试显示,超过90%的回复符合最佳实践。当研究人员进行干预时,通常是机器人提供了超出治疗师范围的建议——比如试图提供如何治疗性传播疾病的一般医疗建议,而不是将患者转介给医疗服务提供者。“它的实际建议都是合理的,但这超出了我们提供的护理范围。”

Therabot并不是典型的大型语言模型;它实际上是手工训练的。Jacobson说,一个由100多人组成的团队根据治疗师应对真实人类经历的最佳实践创建了一个数据集。“只有最高质量的数据才会被纳入其中,”他说。像谷歌的Gemini或Anthropic的Claude这样的通用模型,接受的训练数据远远多于医学文献,可能会做出不当回应。

生成式AI能否成为你的治疗师?

达特茅斯大学的研究是早期迹象之一,表明在某些情况下,专门构建的生成式AI工具是有帮助的,但这并不意味着任何AI聊天机器人都可以成为你的治疗师。这是一个由人类专家监控的受控研究,自己尝试这样做是危险的。

请记住,大多数通用大型语言模型是在互联网上的大量数据上训练的。因此,虽然它们有时可以提供一些好的心理健康指导,但也包含不良信息——比如虚构治疗师的行为,或者人们在网上论坛上发布的关于心理健康的内容。

Jacobson说:“它们在健康环境中表现出深刻不安全的方式有很多。”

即使聊天机器人提供的建议是有帮助的,在错误的情况下也可能有害。Jacobson说,如果你告诉聊天机器人你正在尝试减肥,它会提出帮助你减肥的方法。但如果你有饮食障碍,这可能是有害的。

许多人已经在使用聊天机器人执行类似治疗师的任务。Jacobson说你应该小心。

“就其训练方式而言,它非常接近互联网的质量,”他说。“那里有很好的内容吗?是的。有危险的内容吗?也是的。”

Jacobson说,对待聊天机器人提供的任何信息都要像对待陌生网站一样持怀疑态度。尽管它看起来比一般的生成式AI工具更精致,但它仍然可能不可靠。

如果你或你爱的人正患有饮食障碍,请联系全国饮食障碍协会获取可以帮助的资源。如果你感觉你或你认识的人处于紧急危险之中,请拨打988或发送短信"NEDA"至741741联系危机短信热线。


(全文结束)

大健康

猜你喜欢

  • 抑郁症中的认知症状(缺陷)抑郁症中的认知症状(缺陷)
  • 精神障碍精神障碍
  • 海地僵尸的医学研究海地僵尸的医学研究
  • 抑郁症与认知功能障碍抑郁症与认知功能障碍
  • 新型药物减少神经退行性疾病中的神经元死亡新型药物减少神经退行性疾病中的神经元死亡
  • 心力衰竭心力衰竭
  • 冠心病患者生活指南冠心病患者生活指南
  • 痴呆症及其他导致认知衰退的原因痴呆症及其他导致认知衰退的原因
  • 外泌体:组成、生物发生与功能外泌体:组成、生物发生与功能
  • 重度抑郁症中的认知功能障碍识别与治疗重度抑郁症中的认知功能障碍识别与治疗
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康