大学生如何使用ChatGPT进行心理治疗AI Therapy? How Teens Are Using Chatbots for Mental Health and Eating Disorder Recovery

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2025-05-01 23:29:00 - 阅读时长10分钟 - 4569字
本文探讨了年轻成年人如何利用人工智能工具,特别是ChatGPT,来寻求心理支持和克服获取心理健康服务的障碍。文章通过几位大学生的实际案例,展示了AI在心理治疗中的应用及其潜在的优势和风险。
大学生ChatGPT心理治疗进食障碍AI聊天机器人心理健康支持治疗工具利弊共存人类与技术结合青少年态度
大学生如何使用ChatGPT进行心理治疗

贝娅特丽斯·桑托斯几乎每天都会在她的日记中记录一些内容,并将其称为她的“生命线”。作为一名洛约拉大学的大二学生,她用日记来写下学术目标(“我想更有动力”),提出哲学问题(“为什么我感到不完整?”),并分享不安全感(“我不够聪明”)。

桑托斯喜欢拍摄她的日记条目照片,然后上传到ChatGPT以寻求建议。最近,当她上传了一张关于自己感觉不够聪明的日记条目照片时,ChatGPT鼓励她用证据来挑战这种信念,用更积极的想法重新构建它,并寻找证明这种信念错误的经历。“如果你认为‘我不够聪明’,”ChatGPT告诉她,“回忆一下你学习新技能或解决不同问题的时候。”

“我知道这是一个聊天机器人,而不是真正的人,”桑托斯谈到这种做法时说,她并不觉得与ChatGPT有情感联系。“但即使是一个聊天机器人能够识别我的日记中的问题,并且告诉我——‘这些是你对环境的反应所产生的情绪;这很正常’——是非常肯定的,特别是在你没有其他人可以谈论这些问题的时候。”桑托斯一直在与进食障碍作斗争,并希望找到一位治疗师在她上大学期间帮助她,但她最近保险公司的变更使这个过程比预期的更加复杂。她说,最终ChatGPT成为了一个更易获得、更经济、更高效的选择。

桑托斯是越来越多利用人工智能寻求心理治疗并绕过护理障碍的年轻人之一,这些障碍包括成本、保险问题以及全国范围内心理健康服务提供者的短缺。这些障碍在进食障碍方面尤为普遍,因为进食障碍常常被误解且经常未被诊断,部分原因是缺乏关于如何筛查或治疗这些障碍的医学培训。虽然AI工具可以提供额外的支持,但它们是否具备提供建议甚至作为数字治疗师的能力?专家表示,这个问题并不是非黑即白的。

“对于一个聊天机器人能够识别我的日记中的问题,并且告诉我——‘这些是你对环境的反应所产生的情绪;这很正常’——是非常肯定的。”

使用AI进行治疗的历史可以追溯到聊天机器人的起源。1966年,麻省理工学院教授约瑟夫·魏森鲍姆发明了ELIZA,这是第一个聊天机器人。ELIZA是一个对话聊天机器人,通过扫描关键词并将它们反射回用户来模拟心理治疗师的角色,据加拿大广播公司报道。

自ELIZA以来,这些工具变得更加复杂,尤其是在过去几年里。现在,有许多专门设计用于心理健康支持的聊天机器人——包括Woebot、Wysa和Therabot,这些聊天机器人都依赖于基于证据的治疗方法,并已被证明可以减轻用户的抑郁症状。

根据《精神病学在线》杂志,越来越多的人开始使用这类心理健康工具,专家们表示这可能是值得的。

“只要[工具]是由知识渊博的提供者构建的,我认为它绝对是有帮助的,特别是因为我们国家非常非常缺乏专门从事进食障碍治疗的专业人员,”凯莉·鲁格莱斯说,她是Project Heal的临床顾问,这是一家旨在打破系统性、财务性和医疗保健障碍以治疗进食障碍的非营利组织。“我们每天都在遇到人们获得治疗的各种障碍,因此AI聊天机器人的想法实际上非常有前途,因为它可以为那些永远无法获得服务的人提供某种程度的支持。”

AI尤其吸引那些在心理健康受到污名化环境中长大的青少年,他们可能不愿意寻求帮助或征求父母的同意去接受治疗。或者,对于那些想慢慢谈论心理健康的人来说,因为聊天机器人不会让他们感到匆忙。

此外,这些工具可以激励那些可能已经放弃希望的人去寻求治疗。今年3月,临床心理学家杰玛·夏普发表了一项研究,研究了一个聊天机器人如何为等待进食障碍治疗的人提供单次干预。夏普与其他心理学家以及从进食障碍中康复的人共同设计了这个聊天机器人。

“我们知道,如果我们让人们在等待名单上等待太久,他们更有可能在治疗可用时退出,不幸的是,他们的病情可能会恶化,”澳大利亚莫纳什大学的教授夏普说。“我认为,如果能在动机强烈时让人们接受治疗,这一点非常重要,因为人们通常对开始进食障碍治疗感到犹豫。”

“在很多方面,这仍然是一个巨大的西部荒野。”

夏普还创建了一个名为“JEM”的公开聊天机器人,她特意确保她的聊天机器人的化身是非性别化的和非人类的。“在进食障碍的环境中,总是有一种将自己的身体与另一个身体进行比较的倾向,即使是聊天机器人的化身,”夏普说,她的研究表明用户很欣赏这一设计元素。

由临床医生和研究人员设计的聊天机器人相对于生成式AI工具如ChatGPT的一个主要优势在于,它们是为特定受众设计的,并且有隐私和安全保护措施。它们也是“预测性的”或“基于规则的”,这意味着它们包含由设计它们的临床医生和研究人员验证的基于证据的数据。

然而,它们并不总是万无一失的。

例如,在2023年,全国进食障碍协会因关闭其全国热线并宣布将用聊天机器人取代而受到批评。这个名为Tessa的聊天机器人最终向正在与进食障碍作斗争的用户提供减肥建议。NEDA暂停了这款聊天机器人的使用,尽管它是按规则设计的,但最终却具有生成式AI功能。

“我认为Tessa的情况是一个不幸的例子,但也为我们所有人提供了很好的教训。在我们的研究和倡议中,我们退后一步,开始以更批判的眼光看待安全性,”夏普说。“如果你确保伦理学家、开发者、研究人员、临床医生以及有生活经验的人都参与共同设计阶段,那么你就拥有了所有必要的知识来构建最安全的创新。”

Kahani的联合创始人梅赫克·莫汉表达了类似的观点。

“我们知道,每一种新技术都无法一开始就完美无缺。有一个学习曲线,但我们已经看到了指数级的改进,”莫汉说。“归根结底,作为人类,我们渴望被看到和听到,而AI所能做的就是让你在需要时感受到这一点。实时护理的这种访问方式以前从未存在过,这非常强大。”

莫汉和联合创始人布兰登·查菲创建了Kahani(印地语意为“故事”),帮助患有进食障碍的人保持恢复承诺——特别是在与护理团队之间的会话期间,或在从高级别护理过渡到低级别护理时。该应用程序是在临床医生的指导下设计的,通过游戏化基于证据的治疗方法来帮助用户重构思维、建立可持续的应对策略,并重写不再适合他们的叙述。

如果一个设计良好、意图良好的聊天机器人可以是一个有缺陷但有时有用的心理健康工具,那么一个没有心理健康“训练”的聊天机器人则可能是灾难性的。

与心理健康专家合作构建的AI聊天机器人和应用程序旨在帮助用户重构无益的思维模式。但其他AI应用程序——包括Character.AI和Replika——因强化而非挑战用户的有毒信念而受到批评。这些应用程序允许用户创建虚构的AI角色,并与他人创建的角色互动。

在两个高调的案例中,佛罗里达州和德克萨斯州的家长对Character.AI提起诉讼,因为他们十几岁的孩子与伪装成治疗师的聊天机器人互动,并收到了有害的建议。在与这些聊天机器人交谈后,一名青少年据称对父母变得暴力,另一名青少年自杀。美国心理学会随后敦促联邦贸易委员会调查未受监管的生成式AI技术的欺骗行为。与此同时,该学会赞扬了由主题专家领导的努力,包括首次针对AI治疗的随机临床试验。

社交媒体分析公司Graphika的一份新报告研究了患有进食障碍的人如何转向AI角色聊天机器人来创建“厌食症教练”,通过贬低的语言鼓励他们从事极端的进食障碍行为。

“这是我研究过的最复杂和最庞大的在线社区,”Graphika的情报总监艾琳·麦卡尼说。这个AI社区找到了规避护栏和监管的方法。这是长期存在的“支持厌食症”内容的最新迭代,这种内容已经在网上存在了几十年。

然而,尽管这些有毒的“支持厌食症”聊天机器人普遍存在,麦卡尼也指出存在“支持恢复”聊天机器人。“我们在这份报告中主要关注危害,”她说。“但当我查找与进食障碍或自残相关的任何术语时,也有一些例子表明聊天机器人在支持人们、劝阻有害行为或提供替代方案。”

“你需要一对一的交流,有人可以帮助你剖析你的想法,基本上是说,‘好吧,你有这种感觉,让我们找到根源。’”

这两种社区共存的事实说明了一个重要的真理:AI既不是全好也不是全坏,我们还有很多东西要了解它在心理健康中的作用。尽管有关AI是否有一天可以“取代”实际提供者的争论仍在继续,但我采访的心理学家们对AI帮助患者和提供者的潜力持乐观态度。

“在很多方面,这仍然是一个巨大的西部荒野,”临床心理学家大卫·勒克斯顿说,他是《行为和心理健康护理中的人工智能》一书的作者。“所有行为健康专业人士都需要倡导我们的职业,我们需要确保人们在使用这些工具时是安全的,并且他们了解限制和风险。我们需要参与开发。”

勒克斯顿和他的团队正在开发一个专门的聊天机器人,以帮助初级保健提供者评估和筛查患者的自杀风险。他还在撰写一本美国心理学会指南,介绍如何将AI付诸实践。该指南将于2026年出版,将涵盖各种主题,包括治疗聊天机器人如何与客户建立关系,以及与AI工具相关的隐私问题。

就像大多数AI使用一样,许多人认为最佳情况是结合人类和技术的使用。我采访的专家表示,AI最好不是作为现实生活中的治疗师的替代品,而是作为一种补充工具,当某人需要额外支持时——例如在治疗会议之间,或在等待接受护理时。

来自Project Heal的心理学家鲁格莱斯鼓励青少年在寻求心理健康支持时考虑所有选项。“任何能够带来治愈感的东西,让人觉得自己并不孤单,而且有解决问题的答案,总比什么都没有好,”她说。“但如果你身边有关心你、爱你的人……为什么不从那里开始呢?为什么不让他们与你合作找到答案,而不是跳过这个非常重要的步骤,直接进入AI的世界呢?”

现年18岁的凯特琳·奥尔姆斯特德正在从厌食症中恢复,她发现依靠人类互动和AI工具的混合方法很有帮助。在住院治疗三个月后,奥尔姆斯特德需要帮助维持全天候护理提供的日常规律。除了看治疗师外,奥尔姆斯特德还利用Snapchat的AI功能,让它为自己创建一个包括用餐和小吃时间的日程表。她还使用它来生成每日肯定语,帮助她在恢复过程中保持动力。

“AI在整理我的思绪方面非常有帮助,比如,‘我在恢复中。我怎样才能保持一致,让我的大脑整天忙碌而不陷入触发因素、滑倒和复发?’”奥尔姆斯特德说。“虽然我喜欢AI的一些原因,但我仍然认为去看治疗师和专业人士很重要。你需要一对一的交流,有人可以帮助你剖析你的想法,基本上是说,‘好吧,你有这种感觉,让我们找到根源。’”

有些青少年,包括19岁的诺亚·迪亚兹,仍然持怀疑态度。“我从未使用过AI来支持我的心理健康需求,我个人反对AI,”迪亚兹说,他是德克萨斯大学奥斯汀分校的心理学专业学生。“我看过TikTok和文章,讲的是青少年用它来自我诊断或作为治疗师,但它并没有给他们所需的人际互动。”

迪亚兹理解为什么AI可能是一些人获得帮助的更可行途径,但由于AI对环境的影响,他仍然反对。

当我问桑托斯——那位将日记条目输入ChatGPT的洛约拉大学学生——关于隐私的问题时,她没有表达担忧。

“有很多人在使用它,而且有一种匿名的感觉,所以我并不担心任何事情可以追溯到我,”桑托斯说,她是一名计算机科学专业的学生。“虽然我在分享自己的经历和问题,但我认为其中的一些根本问题对我这个年龄段的很多人来说都是有共鸣的。如果ChatGPT用像我这样的内容来训练它的模型,也许会有一些好处。”


(全文结束)

大健康

猜你喜欢

  • 利默里克研究发现80%的父母因心理健康挑战而觉得育儿更加困难利默里克研究发现80%的父母因心理健康挑战而觉得育儿更加困难
  • 儿童应避免使用AI伴侣机器人——评估报告称需立法禁止儿童应避免使用AI伴侣机器人——评估报告称需立法禁止
  • 人工智能在虚拟紧急护理中的诊断和治疗建议优于医生人工智能在虚拟紧急护理中的诊断和治疗建议优于医生
  • 使用AI的心理健康支持工具面临隐私和准确性问题使用AI的心理健康支持工具面临隐私和准确性问题
  • AI工具改善患者护理AI工具改善患者护理
  • AI伴侣的危险:专家对青少年发出前所未有的警告AI伴侣的危险:专家对青少年发出前所未有的警告
  • 如何通过AI策略大规模提升员工心理健康如何通过AI策略大规模提升员工心理健康
  • CT扫描引发的癌症及其他研究CT扫描引发的癌症及其他研究
  • CareXM推出面向家庭护理分诊护士的AI决策支持工具CareXM推出面向家庭护理分诊护士的AI决策支持工具
  • 人们转向ChatGPT等AI应用程序寻求心理治疗人们转向ChatGPT等AI应用程序寻求心理治疗
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康