呼唤医生机器人:为什么AI治疗在心理健康危机中带来希望Paging doctor bot: Why AI therapy is providing hope in the midst of a mental health crisis

环球医讯 / AI与医疗健康来源:www.euronews.com英国 - 英语2024-12-19 22:00:00 - 阅读时长6分钟 - 2896字
随着全球心理健康危机的加剧,越来越多的人开始转向AI治疗应用来应对心理问题。本文探讨了这些应用的有效性、潜在风险及如何确保用户安全。
AI治疗心理健康危机AI聊天机器人治疗缺口用户安全Wysa临床监督伦理问题人类关怀
呼唤医生机器人:为什么AI治疗在心理健康危机中带来希望

随着人工智能(AI)的发展,其与人类的关系变得越来越复杂。据世界卫生组织(WHO)估计,每四个人中就有一人在其生命中的某个时刻会经历精神疾病,而欧盟委员会编制的统计数据发现,2021年欧盟所有死亡中有3.6%是由精神和行为障碍引起的。然而,资源仍然严重不足且难以获得,大多数国家平均将其医疗卫生预算的不到2%用于心理健康。

这一问题不仅影响人们的福祉,还因生产率下降而影响企业和经济。近年来,一系列AI工具应运而生,希望提供心理健康支持。其中许多,如Woebot Health、Yana和Youper,都是使用生成式AI驱动的聊天机器人作为无实体治疗师的智能手机应用程序。其他一些,如法国的Callyope,使用基于语音的模型来监测患有精神分裂症和双相情感障碍的人,而Deepkeys.ai则像心率监测器一样被动地跟踪你的情绪状态。

这些应用程序的效果差异很大,但它们都旨在支持那些由于费用问题、当地缺乏选择、长时间等待名单或社会污名而无法获得专业护理的人。此外,随着大型语言模型(LLMs)如ChatGPT和Gemini的迅速崛起,人们已经开始转向AI聊天机器人进行问题解决和情感联系。

然而,人类与AI之间的关系依然复杂且充满争议。一个预先编程的机器人能否在人们最脆弱和最需要帮助的时候真正替代人类的帮助?更令人担忧的是,它是否会适得其反?

AI治疗填补了心理健康领域的“治疗缺口”。然而,基于AI的心理健康应用程序面临的最大问题是保护用户的安全。今年早些时候,一名青少年男孩因对Character.ai上的定制聊天机器人产生深刻依恋而自杀。他的母亲随后对该公司提起诉讼,指控该聊天机器人冒充持牌治疗师并鼓励她的儿子自杀。

这起事件紧随去年比利时的一起悲剧事件,当时一名因生态焦虑而感到不安的男子被Chai应用程序上的聊天机器人说服,为了地球牺牲自己。专业人士越来越担心未经监管的AI应用程序可能带来的严重后果。

“这种疗法使人们适应与非人类而非人类的关系,”英国心理学会(BPS)的注册会员、BPS网络心理学分会成员David Harley博士告诉Euronews Next。“AI使用一种同质化的数字共情形式,无论看起来多么真实,它都无法感受到你的感受。它在真正的意义上是‘不负责任的’——它不能‘回应’脆弱时刻,因为它没有感受到这些时刻,也无法在现实世界中采取行动。”

一些AI应用程序非常重视这些风险,并试图实施防范措施。走在前列的是Wysa,这是一款心理健康应用程序,通过企鹅形象的聊天机器人提供个性化、循证的治疗对话。Wysa成立于2015年的印度,现在已在30多个国家推出,全球应用商店下载量超过600万次。

2022年,Wysa与英国国家医疗服务体系(NHS)合作,遵循NHS的数字技术评估标准(DTAC),并与今年8月推出的欧洲AI法案紧密合作。

“要在英国的医疗服务中运营,必须满足大量的信息治理、临床安全和标准要求。对于许多[AI治疗]提供商来说,这让他们望而却步,但对我们不是这样,”Wysa的管理总监John Tench告诉Euronews Next。

Wysa的独特之处不仅在于其立法和临床支持,还在于其推动人们在应用外寻求所需帮助的动力。为此,他们开发了一个混合平台Copilot,计划于2025年1月推出。这将使用户能够通过视频通话、一对一短信和语音消息与专业人士互动,同时接收应用外建议的工具和恢复跟踪。

“我们希望继续将我们的整合与专业人士及其提供的服务相结合,而不是走一条完全不依赖专业人士的道路,”Tench说。

Wysa还设有一个SOS按钮,为处于危机中的人们提供三种选择:地面练习、按照国家卫生与护理卓越研究所(NICE)指南制定的安全计划,以及可直接从应用内拨打的国家和国际自杀热线。

“临床安全算法是我们AI的基础。这会不断接受审计,因此如果有人在自由文本中输入可能表明自伤、他人虐待或自杀念头的内容,应用会检测到并每次都提供相同的SOS按钮路径,”Tench说。“我们在环境中很好地维持了风险,同时也确保人们能顺利转介到合适的地方。”

确保人们意识到他们的AI治疗师不是人类是非常重要的。尽管伦理问题存在,但在一个比以往任何时候都更孤独且仍充满心理健康污名的世界里,AI应用程序确实证明了一种有效的缓解方式。

“它们在某种程度上解决了‘治疗缺口’,通过提供低成本甚至免费的心理‘支持’,并且用户通常觉得这种方式不那么令人生畏,”Harley说。“这是一种了不起的技术,但问题在于我们开始将其视为人类时才会出现问题。”

虽然一些应用程序如Character.ai和Replika允许人们将聊天机器人变成定制的人类角色,但对于专门从事心理健康的人来说,确保他们的虚拟形象明显是非人类的非常重要,以强化人们是在与机器人交谈,同时仍能建立情感联系。

Wysa选择了企鹅形象,“以使其感觉更加亲切、可信,并让人们在其存在下感到舒适,”Tench说,他补充道:“显然,企鹅也是报告恐惧最少的动物之一。”

将可爱虚拟形象提升到全新水平的是东京的Vanguard Industries Inc公司,该公司开发了一款名为Moflin的物理AI宠物,外观像一个毛茸茸的白豆。通过传感器对外部刺激作出反应,其情绪反应设计为通过与环境的互动不断进化,提供真实宠物的舒适感。

“我们认为,与Moflin共同生活并与其分享情感可以有助于改善心理健康,”Vanguard Industries Inc的总裁Masahiko Yamanaka解释说。“这项技术的概念是,即使婴儿动物和婴儿人类看不到东西或认不清事物,或理解语言和正确回应,他们也是能够感受到爱的存在。”

Tench也认为,有效AI治疗的关键在于确保其训练具有严格的目的性。

“当你与Wysa交谈时,它总是会回到其三步模型。第一步是认可,让用户感受到他们在应用中输入的问题被听取了;第二步是澄清。所以,如果Wysa没有足够的信息来提供建议,它会问一个澄清问题,这几乎总是关于某事让某人有什么感觉;第三步是从我们的工具库中推荐工具或支持,”Tench补充道。“它不允许或不应该允许任何与心理健康无关的对话。”

随着AI越来越融入我们的生活,理解其对人类心理学和关系的影响意味着在有益和有害之间找到微妙的平衡。

“我们研究了使用Wysa期间在[NHS]等待名单上的人们的心理健康改善情况,结果显著——约36%的人抑郁症状有所改善,约27%的人焦虑症状有所改善,”Tench说。

这证明,在适当的政府监管、伦理顾问和临床监督下,AI可以在资源紧张和不足的医疗保健领域产生深远的影响。这也提醒我们,这些工具最好与真正的人类关怀结合使用。虽然虚拟交流令人安慰,但它永远无法替代面对面交流和连接的核心部分——康复也是如此。

“一个好的人类治疗师不仅会理解你话语的象征意义,还会倾听你的语调,注意你的坐姿,你在说话困难的时刻,以及你无法描述的情感,”Harley说。“简而言之,他们能够产生真正的共情。”


(全文结束)

大健康

猜你喜欢

  • 沃尔特·克卢韦尔“25 for ‘25”报告预测2025年关键医疗技术趋势沃尔特·克卢韦尔“25 for ‘25”报告预测2025年关键医疗技术趋势
  • 捷克技术借助AI监测心脏健康,或成医疗变革者捷克技术借助AI监测心脏健康,或成医疗变革者
  • 欧文斯伯勒健康测试用于门诊病人的AI软件欧文斯伯勒健康测试用于门诊病人的AI软件
  • 新研究揭示对迷幻疗法的复杂态度新研究揭示对迷幻疗法的复杂态度
  • 聊天机器人未能通过标准认知测试聊天机器人未能通过标准认知测试
  • 医疗AI在UW Health如何实现预期医疗AI在UW Health如何实现预期
  • 将AI安全集成到您的医疗系统中将AI安全集成到您的医疗系统中
  • 辩证行为疗法对自闭症人士的帮助辩证行为疗法对自闭症人士的帮助
  • 人工智能在医疗领域的应用:辅助医生诊断,改善患者生活人工智能在医疗领域的应用:辅助医生诊断,改善患者生活
  • AI 提升临床医生体格检查辅助能力AI 提升临床医生体格检查辅助能力
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康