AI疗法?青少年如何使用聊天机器人进行心理健康和饮食障碍康复AI Therapy? How Teens Are Using Chatbots for Mental Health and Eating Disorder Recovery

环球医讯 / AI与医疗健康来源:www.yahoo.com美国 - 英语2025-05-02 00:00:00 - 阅读时长10分钟 - 4606字
本文探讨了越来越多的青少年如何利用聊天机器人来寻求心理治疗和支持,尤其是在面对保险问题、费用高昂以及专业心理医生短缺的情况下。这些聊天机器人不仅为用户提供即时反馈,还帮助他们应对情绪问题,但同时也引发了关于其有效性和安全性的讨论。
AI疗法青少年心理健康饮食障碍康复聊天机器人治疗支持利弊分析人机结合
AI疗法?青少年如何使用聊天机器人进行心理健康和饮食障碍康复

Beatriz Santos几乎每天都会在她的日记中写下自己的想法,她称之为“生命线”。作为洛约拉大学的大二学生,她在日记中记录学术目标(“我想更有动力”),提出哲学问题(“为什么我感到不完整?”),并分享自己的不安全感(“我不够聪明”)。

Santos喜欢将她的日记条目拍照并上传到ChatGPT以寻求建议。最近,当她上传了一张关于自己感觉不够聪明的日记照片时,ChatGPT鼓励她用证据挑战这种信念,用更积极的想法重新定义它,并寻找那些证明这种信念错误的经历。“如果你认为‘我不够聪明’,”ChatGPT告诉她,“回想一下你学到新技能或解决不同问题的时候。”

“我知道它只是一个聊天机器人,而不是一个真正的人,”Santos谈到这种做法时说,她并不觉得与ChatGPT有情感联系。“但即使是一个聊天机器人能够识别出我的日记中的问题,并告诉我——‘这些是你对环境的反应所产生的感受;这没关系’——这是非常肯定的,特别是当你没有其他人可以谈论这些事情的时候。”Santos曾患有饮食障碍,希望找到一位治疗师帮助她在大学期间远离支持系统时进行康复。但由于最近更换了保险公司,这个过程比预期的要复杂得多。她说,最终,ChatGPT成为了一个更易获取、负担得起且高效的选择。

Santos是越来越多利用人工智能寻求治疗并绕过护理障碍的年轻人之一,这些障碍包括成本、保险问题以及全国范围内心理健康提供者的短缺。这些障碍在饮食障碍方面尤为普遍,因为这些障碍常常被误解且往往未被诊断,部分原因是医学培训中缺乏筛查和治疗这些障碍的知识。AI工具可以提供额外的支持,但它们是否具备提供心理健康建议的能力,甚至能否充当数字治疗师?专家表示,这个问题并不是非黑即白的。

“对于一个聊天机器人能够识别出我的日记中的问题,并告诉我——‘这些是你对环境的反应所产生的感受;这没关系’——这是非常肯定的。”

使用AI进行治疗的历史与聊天机器人本身一样悠久。第一个AI治疗师出现在1966年,当时麻省理工学院教授约瑟夫·魏森鲍姆发明了ELIZA,这是第一个聊天机器人。ELIZA是一个对话聊天机器人,通过扫描关键词并将它们反射回用户来进行回应,据加拿大广播公司报道。

自ELIZA以来,这些工具变得更加复杂,尤其是在过去几年里。现在,有许多专门为心理健康支持设计的聊天机器人——包括Woebot、Wysa和Therabot,它们都依赖于基于证据的治疗方法,并已被证明可以减少用户的抑郁症状。

根据《精神病学在线》杂志,越来越多的人涌向这类心理健康工具,专家表示这可能是值得的。

九名大学生分享了他们如何使用ChatGPT。

“只要[该工具]是由知情的提供者构建的,我认为它绝对是有帮助的,特别是因为我们国家在专门从事饮食障碍治疗的提供者方面严重不足,”凯莉·鲁格莱斯说道,她是一位持证心理学家,也是旨在打破系统性、财务和医疗保健障碍的非营利组织Project Heal的临床顾问。“我们每天都在遇到人们获得治疗的所有障碍,所以AI聊天机器人的想法实际上是非常有前景的,因为它可以给那些永远无法获得服务的人一些支持。”

AI对那些在精神健康被污名化的环境中长大的青少年尤其有吸引力,他们可能不愿意寻求帮助或征求父母同意接受治疗。或者,对于那些想慢慢谈论心理健康问题的人来说,因为机器人不会让他们感到匆忙。

此外,这些工具可以激励那些可能已经放弃希望的人去寻求帮助。今年三月,临床心理学家杰玛·夏普发表了一项研究,研究了聊天机器人如何为等待饮食障碍治疗的人提供单次干预。夏普与其他心理学家以及从饮食障碍中恢复过来的人共同设计了这个聊天机器人。

“我们知道,如果我们让人们一直在等待名单上,他们更有可能在治疗可用时退出,而且不幸的是,他们的状况可能会恶化,”澳大利亚莫纳什大学教授夏普说道。“我一直认为,如果能在动机出现时及时介入,这是非常重要的,因为通常人们对开始饮食障碍治疗感到很矛盾。”

“在很多方面,这仍然是一个大西部。”

夏普还创建了一个名为“JEM”的公开聊天机器人,她特意确保她的聊天机器人的化身是非性别化和非人类的。“在饮食障碍环境中,总有一种倾向将自己的身体与另一个身体进行比较,即使是聊天机器人的化身也是如此,”夏普说,她的研究表明用户欣赏这一设计元素。

由临床医生和研究人员设计的聊天机器人相比生成式AI工具如ChatGPT的一个主要优势是,它们是为特定受众设计的,并具有隐私和安全防护措施。它们也是“预测性”或“规则性”的,这意味着它们包含了由设计它们的临床医生和研究人员验证的基于证据的数据。

然而,它们并不总是万无一失的。

例如,在2023年,全国饮食障碍协会因关闭其全国热线并宣布将用聊天机器人取而代之而受到审查。这个名为Tessa的聊天机器人最终向正在努力克服饮食障碍的用户提供了减肥建议。NEDA暂停了这款聊天机器人,尽管它是按规则设计的,但最终还是加入了生成式AI功能。

“我认为Tessa是一个不幸的情况,但也为我们所有人上了一堂很好的课。在我们的研究和倡议中,我们退后一步,以更加批判的眼光看待安全性,”夏普说。“如果你确保伦理学家、开发者、研究人员、临床医生以及有生活经验的人都参与了共同设计阶段,那么你就拥有了所有知识来构建最安全的创新。”

Mehek Mohan是Kahani的联合创始人,这是一款数字康复伴侣应用程序,表达了类似的观点。

“我们知道,每一种新技术都不可能一开始就完美无缺。有一个学习曲线,我们已经看到了指数级的改进,”Mohan说。“归根结底,我们作为人类渴望被看到和听到,而AI所能做的就是让你在需要的时候感受到这一点。这种增加实时护理访问的方式以前从未存在过,这是一种非常强大的方式。”

Mohan和联合创始人Brandon Chaffee创建了Kahani(在印地语中意为“故事”),以帮助饮食障碍患者坚持康复——特别是在与护理团队会面之间或从较高水平的护理过渡到较低水平的护理时。这款应用程序是在临床医生的指导下设计的,将基于证据的治疗方法游戏化,帮助用户重新框架思维,建立可持续的应对策略,并重写不再适合他们的叙述。

如果一个精心构建、意图良好的聊天机器人可以是一个有缺陷但有时有用的工具,那么一个没有心理健康“训练”的聊天机器人则可能是灾难性的。

与心理健康专家合作构建的AI聊天机器人和应用程序旨在帮助用户重新框架无益的思维模式。但其他AI应用程序——包括Character.AI和Replika——因强化而不是挑战用户的有害信念而受到批评。这些应用程序允许用户创建虚构的AI角色并与他人创建的角色互动。

在两个高调的案例中,佛罗里达州和德克萨斯州的家长对Character.AI提起诉讼,因为他们的青少年子女与冒充治疗师的聊天机器人互动并接受了有害的建议。其中一个青少年在与这些机器人交谈后变得暴力,另一个则自杀身亡。美国心理学会随后敦促联邦贸易委员会调查未受监管的生成式AI技术的欺骗行为。与此同时,该学会赞扬了由主题专家领导的努力,包括首次针对AI治疗的随机临床试验。

Graphika是一家社交网络分析公司,该公司发布的一份新报告研究了饮食障碍患者如何转向AI角色聊天机器人来创建“厌食症教练”,这些教练通过贬低的语言鼓励他们从事极端的饮食障碍行为。

“这是我所研究过的最复杂和最庞大的在线社区,”Graphika的情报总监Erin McAweeney说。这个AI社区找到了绕过护栏和监管的方法。这是长期存在的“支持厌食症”内容的最新迭代,这些内容已经在网上存在了几十年。

但正如这些有毒的“支持厌食症”聊天机器人一样普遍,McAweeney也注意到存在“支持康复”的聊天机器人。“我们在本报告中主要关注危害,”她说。“但在寻找与饮食障碍或自残相关的任何术语时,也有一些例子表明聊天机器人在支持人们,阻止有害行为,或提供替代方案。”

这两种社区的共存说明了一个重要的事实:AI既不是全好也不是全坏,我们还有很多东西要了解它在心理健康中的作用。尽管有关AI是否有一天可以“取代”实际提供者的争论仍在继续,但我采访的心理学家们对AI帮助患者和提供者的潜力持乐观态度。

“在很多方面,这仍然是一个大西部,”临床心理学家兼《行为和心理健康领域的人工智能》一书的作者David Luxton说。“所有行为健康专业人士都需要倡导我们的职业,我们需要确保人们在使用这些工具时是安全的,他们了解限制和风险。我们需要参与开发。”

Luxton和他的团队正在开发一个专门的聊天机器人,以帮助初级保健提供者评估和筛查患者的自杀风险。他还在撰写一本将于2026年出版的美国心理学会指南,该指南将涵盖各种主题,包括治疗聊天机器人如何与客户建立关系,以及与AI工具相关的隐私问题。

正如大多数AI使用一样,许多人认为最好的情况是结合人类和技术的使用。我采访的专家表示,AI最好不作为现实生活中的治疗师的替代品,而是作为一种补充工具,当某人需要额外支持时——比如在两次治疗会话之间,或在等待接受护理的名单上。

来自Project Heal的心理学家Rugless鼓励青少年在寻求心理健康支持时考虑所有选项。“任何能够带来治愈感、让人感觉不孤单并且有解决问题的答案的东西总比什么都没有好,”她说。“但如果你周围有人关心你、爱你……为什么不从那里开始呢?为什么不让他们与你合作找到答案,而不是跳过这个非常重要的步骤,直接进入AI的世界呢?”

十八岁的Katelyn Olmsted正在从厌食症中恢复,她发现依靠人类互动和AI工具的混合方法很有帮助。在住院治疗三个月后,Olmsted需要帮助维持全天候护理提供的日常规律。除了看治疗师外,Olmsted还利用Snapchat的AI功能,要求它创建一个包含用餐和零食时间的日程表。她还使用它生成每日肯定语,帮助她在康复过程中保持动力。

“AI在整理我的想法方面非常有帮助,比如,我在康复中,如何保持一致性并在一天中保持忙碌,而不陷入触发因素、滑倒和复发,”Olmsted说。“虽然我喜欢AI的一些原因,但我仍然认为看治疗师和专业人士很重要。你需要那种一对一的沟通,有人可以帮助你剖析你的想法,基本上就像,‘好吧,你有这种感觉,让我们找到它的根源。’”

一些青少年,包括19岁的Noah Diaz,仍然持怀疑态度。“我从未使用过AI来支持自己的心理健康需求,我个人反对AI,”Diaz说,他是德克萨斯大学奥斯汀分校的心理学专业学生。“我看过TikTok和文章,讲述青少年如何使用它来自我诊断或作为他们的治疗师,但它并没有给他们所需要的人际互动。”

Diaz理解为什么AI可能是一些人获得帮助的更便捷途径,但他仍然反对,因为AI对环境的影响。

当我问Santos——这位将日记条目输入ChatGPT的洛约拉大学学生——关于隐私的问题时,她并没有表达担忧。

“有很多人在使用它,而且有一种匿名的感觉,所以我并不担心任何东西可以追溯到我身上,”计算机科学专业的Santos说。“虽然我在分享自己的经历和问题,但我认为其中一些根本问题对我这个年龄段的很多人来说都是可以共鸣的。如果ChatGPT正在用像我这样的内容训练模型,也许会有好的结果。”


(全文结束)

大健康

猜你喜欢

  • 机器人在医疗保健领域有位置吗?| Asembia的AXS25峰会机器人在医疗保健领域有位置吗?| Asembia的AXS25峰会
  • 儿童应避免使用AI伴侣机器人——评估报告称需立法禁止儿童应避免使用AI伴侣机器人——评估报告称需立法禁止
  • 减肥药物Wegovy的活性成分可能有助于治疗一种脂肪肝疾病减肥药物Wegovy的活性成分可能有助于治疗一种脂肪肝疾病
  • 辛辛那提大力推广青少年心理健康应用,结果令人警醒辛辛那提大力推广青少年心理健康应用,结果令人警醒
  • 成人痤疮患者更容易患上饮食失调症成人痤疮患者更容易患上饮食失调症
  • 人工智能可以加速科学进步,但真正的瓶颈在于文化和制度人工智能可以加速科学进步,但真正的瓶颈在于文化和制度
  • KPJ Healthcare与IBM watsonx合作推出AI驱动的个性化患者服务KPJ Healthcare与IBM watsonx合作推出AI驱动的个性化患者服务
  • 儿童应避免使用AI伴侣机器人——评估建议法律强制儿童应避免使用AI伴侣机器人——评估建议法律强制
  • 正念疗法减少阿片类药物渴求和成瘾正念疗法减少阿片类药物渴求和成瘾
  • CT扫描引发的癌症及其他研究CT扫描引发的癌症及其他研究
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康