探索人工智能聊天机器人在心理健康护理中的应用Exploring the Use of AI Chatbots in Mental Health Care - Infectious Disease Advisor

环球医讯 / AI与医疗健康来源:www.infectiousdiseaseadvisor.com美国 - 英语2025-10-04 01:44:36 - 阅读时长11分钟 - 5173字
本文深入探讨了人工智能聊天机器人在心理健康护理领域的应用现状与前景,详细介绍了达特茅斯学院进行的首项生成式AI聊天机器人随机对照试验结果,分析了AI工具在补充心理健康服务方面的潜力与局限,并汇集了斯坦福大学和北佛罗里达大学专家的观点,强调AI应作为治疗师的辅助工具而非替代品,特别是在处理中重度心理健康问题时,同时指出了建立评估标准、确保数据安全及维护治疗关系的重要性。
人工智能聊天机器人心理健康护理心理健康治疗抑郁症焦虑障碍进食障碍治疗联盟Therabot临床医生自助工具
探索人工智能聊天机器人在心理健康护理中的应用

图片来源:盖蒂图片社 专家们就人工智能聊天机器人在心理健康治疗中日益增长的使用发表了看法,分享了这些工具在临床实践中可能有效或无效的见解。

随着基于人工智能(AI)的聊天机器人(如ChatGPT)的普及度持续增加,越来越多的人开始将这些工具用于心理健康支持。据估计,约有一半的心理健康障碍患者未得到治疗,人工智能聊天机器人可能为心理健康领域的补充支持和其他应用带来希望。然而,许多专家对在治疗中使用这些工具表示担忧,并警告不要将其作为人类临床医生的替代品。

首项心理健康护理中生成式AI聊天机器人的随机对照试验

在探索AI聊天机器人在心理健康护理中使用的新兴研究中,达特茅斯学院的研究人员进行了首个随机对照试验,研究完全生成式(而非基于规则的)AI聊天机器人对心理健康治疗的影响。在2025年3月发表的这项研究中,患有重度抑郁症(MDD)、广泛性焦虑障碍(GAD)或进食和饮食障碍临床高风险(CHR-FED)的成年参与者(n=210)被随机分配到4周的聊天机器人干预组或等待对照组。

研究的主要结果是与基线相比,在4周干预结束时和8周随访评估时的症状变化。为了评估参与者的抑郁、焦虑和体重及体型担忧症状,研究人员分别使用了患者健康问卷-9(PHQ-9)、广泛性焦虑障碍问卷(GAD-Q-IV)和斯坦福-华盛顿大学饮食障碍(SWED)筛查工具。在4周时,与等待对照组相比,聊天机器人干预组患者的MDD症状(-6.13 vs -2.63)、GAD症状(-2.32 vs -0.13)和CHR-FED症状(-9.83 vs -1.66)平均减少幅度显著更大。

在8周随访时,干预组与等待对照组相比,在MDD症状(-7.93 vs -4.22)、GAD症状(-3.18 vs -1.11)和CHR-FED症状(-10.23 vs -3.70)方面也观察到显著更大的减少幅度。

在试验中检查的次要结果中,聊天机器人显示出高用户参与度和与人类治疗师相当的"治疗联盟"评分。

首要作者观点

未来,AI聊天机器人在心理健康治疗中的使用"可以使具有成本效益的、基于证据的、高保真度的、个性化的治疗方法扩展到原本无法获得治疗的人群,"该试验的首要作者、达特茅斯盖泽尔医学院助理教授兼达特茅斯学院技术与行为健康中心人工智能与心理健康实验室博士后研究员迈克尔·V·海因茨(Michael V. Heinz)博士解释道。

海因茨博士指出,需要建立安全性和有效性基准,"以便对新模型进行标准化评估,并及早识别可能不符合用户心理健康最佳利益的模型。"他还指出,需要进行临床试验,将AI驱动治疗与传统心理健康治疗方法进行比较,并阐明AI驱动模型最适合的患者人群和心理健康挑战。

为此,"我们目前正在开展一些试点研究,探索Therabot在新人群中的使用,包括同时患有焦虑和抑郁的大麻使用障碍患者,"他说。

专家观点

为了深入讨论AI在心理健康领域的当前应用状态、这些方法的潜在好处和缺点以及该领域的剩余差距,《精神病学顾问》采访了加利福尼亚州斯坦福大学精神病学和行为科学系教授香农·维尔特西·斯特曼(Shannon Wiltsey Stirman)博士,以及佛罗里达州杰克逊维尔北佛罗里达大学领导力、学校咨询和体育管理系助理教授拉克什·K·毛里亚(Rakesh K. Maurya)博士。

在心理健康治疗中使用AI聊天机器人的现状如何?是否知道这种使用的普遍程度及其增长速度?

斯特曼博士: 我们知道人们正在使用ChatGPT等通用AI平台处理心理健康相关问题。最近的一项调查发现,24%的全国代表性样本报告使用大型语言模型用于心理健康相关目的——例如,寻求信息甚至作为治疗的替代品。

在心理健康治疗环境中的使用方面,我认为它们尚未广泛推广,因为存在HIPAA合规性等尚未解决的问题。然而,有数十种使用AI聊天机器人的心理健康应用程序正在推出,但很少经过测试。在海因茨等人的最近研究中,Therabot聊天机器人优于等待列表对照组,但我认为在治疗环境中广泛推广这些工具还需要一些时间。

即使使用这些技术,它们目前也有很多事情无法做得像治疗师一样好,因此建议治疗师仍然密切关注患者的使用情况,监测他们收到的回复是否安全适当,这些工具对每个人的有效性如何,以及人们是否以适当水平参与使用——即不依赖它们或过度使用,但参与度足够以使其有所帮助。

毛里亚博士: 目前,AI在心理健康治疗中的使用主要有两种方式。首先,它帮助临床医生完成文档任务。例如,Eleos Health等平台可以通过分析治疗会话自动生成进展记录并提供实时临床见解。这种AI支持真正有助于减轻临床医生的行政负担,使他们能够将更多时间专注于患者而不是文书工作。

第二个领域是自助工具,包括Wysa、Woebot和Mindspa等AI聊天机器人。这些工具专为个人用户设计,提供24/7支持。它们引导用户通过基于证据的技术,如认知行为疗法(CBT)和辩证行为疗法(DBT),帮助进行情绪跟踪、正念和压力管理,并为日常检查提供安全、匿名的空间。它们不是治疗的替代品,但可以在会话之间或为可能无法获得治疗师的人提供有意义的支持。

临床医生也开始使用ChatGPT等工具支持心理教育。我进行了一项研究,测试了ChatGPT生成的心理教育信息的可靠性,我们发现当用户在问题中提供足够上下文时,回复通常清晰、准确且符合伦理。因此,它作为支持临床护理的工具显示出真正的前景——不是作为治疗师,而是作为可以帮助解释概念或生成想法的副驾驶。

至于这一切的普遍程度,它仍在发展但正在增长。越来越多的临床医生和患者正在尝试这些工具,人们对如何负责任且有效地使用它们充满好奇。因此,虽然采用的完整图景尚未完全清晰,但势头已经存在。

在心理健康护理中使用AI聊天机器人的潜在好处和缺点是什么,特别是作为人类治疗师的替代品?您的最近发现对这一主题的理解有何贡献?

斯特曼博士: 有一些新出现的研究结果,包括我和同事所做的研究,表明AI聊天机器人不像治疗师那样回应。它们更加冗长,在收集足够信息以做出关于何种干预可能最适当的明智决策之前,就急于解决问题和提供建议,而且并不总是能很好地检测或管理风险。它们似乎在做出同理心和验证性回应方面做得相当好。

目前,AI聊天机器人不具备形成治疗师所做的那种病例概念化。我有一位同事,菲利普·赫尔德(Philip Held),开发了一个名为苏格拉底(Socrates)的聊天机器人,它提出指导性问题,帮助人们对自己面临的特定情况或挑战得出自己的结论。但这需要专门训练聊天机器人来做到这一点。目前普遍可用的聊天机器人不会以治疗师的方式运作,而市场上推出的——例如,在应用商店中——作为治疗师的聊天机器人尚未经过仔细测试。

当我们能确定AI治疗聊天机器人安全、私密、有效且无偏见时,优势当然包括可用性和可及性。有些人由于成本和便利性等原因无法获得治疗,AI聊天机器人当然也可以在会话之间支持人们——理想情况下,不会让他们产生依赖,而是帮助他们在会话之间感到卡住或难以将他们在治疗中学到的内容付诸实践时提供帮助。因此,我认为它们可能有好处,但我们需要确保仔细测试它们,以确保它们安全有效。

毛里亚博士: 像ChatGPT这样的AI聊天机器人在心理健康护理中显示出前景,特别是在心理教育和一般健康领域。我们的研究发现,像ChatGPT这样的工具可以提供准确、清晰、相关且符合伦理的信息,涵盖广泛的心理健康主题。对于由于财务、地理或文化障碍而难以获得心理健康资源的个人来说,AI可以作为探索自助策略和了解心理健康的宝贵第一步。

话虽如此,必须谨慎对待这些工具。虽然AI聊天机器人可以模拟同理心语言并提供支持性指导,但它们缺乏真正理解情感细微差别或建立有效治疗核心的那种治疗联盟的能力。它们未经过训练来处理危机情况或复杂的心理健康障碍,也不能替代合格的心理健康专业人员的角色。

底线是:AI工具可以补充但绝不应替代人类治疗师,特别是对于中度至重度心理健康问题。这些聊天机器人最好作为辅助工具使用——例如,帮助患者在会话之间反思,或在治疗师无法立即提供帮助时提供应对技巧。但我们必须继续向用户教育它们的局限性,特别是围绕数据隐私、上下文准确性和文化相关性。

您会向临床医生推荐哪些行动和资源,以充分了解并准备好与患者讨论将AI聊天机器人用于心理健康目的?在与患者讨论这一主题时,应强调哪些关键点?

斯特曼博士: 一些专业组织,如美国精神病学协会和美国心理学会,一直在发布关于AI的指导和信息,这些信息可能非常有帮助。我认为寻找研讨会或学习和理解大型语言模型如何工作的机会,有助于与患者进行知情讨论。我和一位同事刚刚在行为与认知治疗协会举办了这方面的研讨会。还有一些专业组织会发布播客并涵盖AI聊天机器人。

对于患者,跟踪AI聊天机器人的研究并鼓励对其安全性水平进行审查将非常重要——例如,不提供不适当或有害的建议或回应,并具有检测和适当响应风险的能力——以及与这些工具相关的数据隐私和有效性,以及它们是否已开发为提供文化适当的回应。许多产品作为健康工具推出,这意味着它们未经仔细测试,也不受心理健康治疗工具的监管。阅读这些产品的服务条款可能具有挑战性,但了解数据如何使用和存储等问题非常重要。

毛里亚博士: 我认为临床医生的第一步是参与当前关于AI在心理健康护理中使用的研究,特别是在心理教育、患者支持和临床文档等领域。我们在这个领域看到快速发展的进展,了解情况的临床医生可以更好地指导他们的患者。参加专业发展研讨会、遵循专业协会的道德指南以及参与技术人员和心理健康专业人员之间的对话,都是建立这些主题基础知识的绝佳方式。

在实践中,我鼓励临床医生将ChatGPT等AI工具视为副驾驶,而不是替代品。例如,AI可以作为生成心理教育材料、总结笔记甚至头脑风暴治疗策略的有用辅助工具。但在与患者合作时,临床医生设定明确期望很重要。我们需要让患者知道,虽然AI聊天机器人可以支持一般健康和自我反思,但它们不是治疗的替代品,特别是对于处理中度至重度心理健康问题的人。这些工具不提供个性化治疗或危机支持。

临床医生还应该与患者讨论隐私问题。这些平台不是为分享敏感个人信息而设计的,因此我们角色的一部分是帮助患者以深思熟虑和负责任的方式使用这些工具,可能作为会话之间的补充或当治疗师无法立即提供帮助时,但始终要理解它们的局限性。

在心理健康护理中使用AI聊天机器人方面,目前最迫切的需求是什么?

斯特曼博士: 我认为一些最迫切的需求是在将这些产品用作心理健康干预之前,开发评估标准,以及围绕安全性、隐私、模型如何训练以及已经进行了多少测试以确定它们是否真正有效的透明度。我认为至关重要的是,这些模型的开发要与具有临床专业知识的人、有心理健康治疗生活经验的个人以及政策制定者真正合作,以确保开发的产品安全有效,并且人们的数据不会以他们不会同意的方式使用。

根据可用的书籍或治疗手册训练模型似乎很直接,最初的结果可能看起来相当好,但当你进一步测试时,你会发现它们并不总是表现得像需要的那样好。我们知道,做好治疗不仅仅需要读书——有很多细微差别和需要定制,这就是具有临床专业知识的人需要带到桌面上来支持开发不会造成伤害且实际上有帮助的技术。

毛里亚博士: 我认为AI在心理健康方面最迫切的需求之一是认识到AI可以提供和不能提供的明确界限。AI聊天机器人可以帮助提供信息、支持心理教育,甚至帮助人们反思他们的想法,但它们不能替代人类联系。

心理治疗有大量的研究表明,治疗中的真正改变主要不是因为所使用的技术。改变发生是因为治疗关系——信任、协调和被看到和理解的感觉。作为人类,我们经常在关系中受伤,也是通过关系治愈。这种联系是AI无法真实复制的,无论技术变得多么先进。

从研究和教育的角度来看,强烈需要帮助人们——尤其是年轻人和数字原住民——理解AI工具在心理健康护理中的适当角色。我们需要问:这些工具如何影响寻求帮助的行为?人们如何解释他们从聊天机器人那里获得的支持?我们是否可能无意中将人类联系在心理健康护理中是可选的这一想法正常化?

临床医生还需要更多培训和支持,以了解如何负责任地将AI整合到他们的工作中。这不是接受或拒绝这些工具的问题;而是关于如何明智、道德地使用它们,并充分了解它们的局限性。我坚信,随着我们前进,我们的挑战将是平衡创新与人类联系,并确保技术补充护理,而不是取代使治疗如此强大的东西。

本文最初发表在《精神病学顾问》上

【全文结束】

大健康

猜你喜欢

  • 麦吉尔大学研究人员开发AI工具检测单细胞中隐藏的疾病标记物麦吉尔大学研究人员开发AI工具检测单细胞中隐藏的疾病标记物
  • 巨型旧货集市为英国阿尔茨海默病研究会筹集巨额善款巨型旧货集市为英国阿尔茨海默病研究会筹集巨额善款
  • 人工智能在医疗领域的战略与现实人工智能在医疗领域的战略与现实
  • 基于脂质纳米颗粒的疗法在脂肪肝疾病中显示出前景基于脂质纳米颗粒的疗法在脂肪肝疾病中显示出前景
  • ASTRO 2025:放射治疗规则的拓展ASTRO 2025:放射治疗规则的拓展
  • 欧洲议会议员瓦特曼斯呼吁以对抗癌症的雄心治疗痴呆症欧洲议会议员瓦特曼斯呼吁以对抗癌症的雄心治疗痴呆症
  • 利用人工智能改善患者护理指南利用人工智能改善患者护理指南
  • 研究人员开发脂肪样纳米粒子治疗脂肪肝疾病研究人员开发脂肪样纳米粒子治疗脂肪肝疾病
  • AI物理治疗师获准自主决策AI物理治疗师获准自主决策
  • 新型AI工具可检测疾病隐藏预警信号新型AI工具可检测疾病隐藏预警信号
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康