人工智能驱动的心理健康工具正变得越来越受欢迎,而且越来越具有说服力。
最近,我发现自己并不是在向一个人倾诉心声,而是在向手机上的一个名为Wysa的聊天机器人倾诉。它虚拟地点了点头,问我感觉如何,并建议尝试呼吸练习。
作为一名神经科学家,我不禁想知道:我真的感觉好转了吗,还是只是被一个训练有素的算法巧妙地引导了?一串代码真的能帮助平息情绪的风暴吗?
人工智能驱动的心理健康工具正变得越来越受欢迎,而且越来越具有说服力。但在它们温和的提示背后,存在一些重要的问题:这些工具的效果如何?我们对它们的工作原理了解多少?为了便利,我们又放弃了什么?
当然,这是数字心理健康领域令人兴奋的时刻。但了解基于AI的护理的权衡和局限性至关重要。
替代冥想和治疗的应用程序和机器人
基于AI的治疗是数字治疗领域的一个相对较新的参与者。但美国心理健康应用程序市场在过去几年里蓬勃发展,从提供免费工具的短信应用程序到带有呼吸练习提示的高级版本。
Headspace和Calm是两个最著名的冥想和正念应用程序,提供引导冥想、睡前故事和令人放松的声音景观,以帮助用户放松和改善睡眠。Talkspace和BetterHelp更进一步,通过聊天、视频或语音提供实际的持证治疗师。应用程序Happify和Moodfit旨在通过基于游戏的练习来提升情绪并挑战负面思维。
介于两者之间的是聊天机器人治疗师,如Wysa和Woebot,它们使用AI来模拟真实的治疗对话,通常基于认知行为疗法。这些应用程序通常提供免费的基本版本,付费计划的价格从每月10美元到100美元不等,以获得更全面的功能或访问持证专业人士的机会。
虽然不是专门为治疗设计的,但像ChatGPT这样的对话工具也引发了人们对AI情感智能的好奇心。
一些用户转向ChatGPT寻求心理健康建议,结果喜忧参半,包括一例在比利时广泛报道的案例,一名男子在与聊天机器人交谈数月后自杀身亡。此外,一位父亲在儿子被警察致命枪击后寻求答案,指控与AI聊天机器人的令人不安的对话可能影响了他儿子的心理状态。这些案例引发了关于AI在敏感情况下的角色的伦理问题。
AI的介入
无论你的大脑是在螺旋式下降、闷闷不乐,还是只是需要小睡一会儿,都有相应的聊天机器人。但AI真的能帮助你的大脑处理复杂的情绪吗?还是人们只是将压力外包给了听起来有同理心的硅基支持系统?
那么,AI治疗究竟是如何在我们的大脑中工作的呢?
大多数AI心理健康应用程序承诺提供某种形式的认知行为疗法,这基本上是对内心混乱的结构化自我对话。可以把它想象成日本整理专家近藤麻理惠(Marie Kondo)式的整理,她以帮助人们只保留那些“带来快乐”的物品而闻名。你识别出无益的思维模式,如“我是个失败者”,然后审视它们,决定它们是否对你有帮助,还是只是制造焦虑。
但聊天机器人能帮助你重新连接你的思维吗?令人惊讶的是,有科学研究表明这是可能的。研究表明,数字形式的谈话疗法可以减少焦虑和抑郁症状,尤其是对于轻度到中度的情况。事实上,Woebot已经发表了同行评审的研究,显示在与聊天机器人交谈两周后,年轻人的抑郁症状有所减轻。
这些应用程序旨在模拟治疗互动,提供同理心,提出引导性问题,并引导你使用基于证据的工具。其目标是帮助决策和自我控制,并帮助平静神经系统。
认知行为疗法背后的神经科学是坚实的:它涉及激活大脑的执行控制中心,帮助我们转移注意力,挑战自动思维,并调节我们的情绪。
问题是,聊天机器人是否能可靠地复制这一点,以及我们的大脑是否真的相信它。
用户的体验,以及对大脑的意义
“我这一周过得不好,”我的一个朋友最近告诉我。我让她尝试一个心理健康聊天机器人几天。她告诉我,机器人用一个鼓励的表情符号回复,并根据她的感受生成了一个提示,建议她尝试一种冷静的策略。令她惊讶的是,到了周末,它帮助她睡得更好。
作为一名神经科学家,我不禁要问:她大脑中哪些神经元在帮助她感到平静?
这并不是个例。越来越多的用户调查和临床试验表明,基于认知行为疗法的聊天机器人互动可以在短期内改善情绪、注意力,甚至睡眠。在随机研究中,使用心理健康应用程序的用户报告称抑郁和焦虑症状减少,这一结果与面对面的认知行为疗法对大脑的影响非常接近。
几项研究表明,治疗聊天机器人实际上可以帮助人们感觉更好。在一项临床试验中,一个名为“Therabot”的聊天机器人帮助减少了近一半的抑郁和焦虑症状,这与人们从人类治疗师那里得到的体验相似。其他研究,包括对80多项研究的综述,发现AI聊天机器人在改善情绪、减轻压力,甚至帮助人们更好地睡眠方面特别有效。在一项研究中,聊天机器人在两周内提升心理健康的效果超过了自助书籍。
虽然人们在使用这些聊天机器人后通常报告感觉好转,但科学家们尚未确切了解在这些互动期间大脑中发生了什么。换句话说,我们知道它们对许多人有效,但我们仍在学习它们如何以及为何起作用。
红旗和风险
像Wysa这样的应用程序获得了美国食品药品监督管理局(FDA)的突破性设备认定,这是一种加速严重疾病有前景技术的快速通道,表明它们可能提供真正的临床益处。同样,Woebot也进行了随机临床试验,显示新妈妈和大学生的抑郁和焦虑症状有所改善。
尽管许多心理健康应用程序声称“临床验证”或“FDA批准”,但这些说法往往未经核实。对顶级应用程序的审查发现,大多数都做出了大胆的声明,但不到22%引用了实际的科学研究来支持它们。
此外,聊天机器人会收集关于你的情绪指标、触发因素和个人故事的敏感信息。如果这些数据最终落入第三方手中,比如广告商、雇主或黑客,这种情况在基因数据中已经发生过。在2023年的一次数据泄露事件中,DNA测试公司23andMe的近700万名用户在黑客使用之前泄露的密码入侵他们的账户后,其DNA和个人详细信息被曝光。监管机构后来因未能保护用户数据而对该公司的罚款超过200万美元。
与临床医生不同,机器人不受心理咨询伦理或医疗信息隐私法律的约束。你可能正在接受某种形式的认知行为疗法,但你也在为数据库提供数据。
当然,机器人可以指导你进行呼吸练习或提示认知再评估,但在面对情感复杂性或危机时,它们往往无能为力。人类治疗师能够洞察细微差别、过去的创伤、共情和实时反馈循环。算法能以真正的理解说“我听到你了”吗?神经科学研究表明,支持性的人类联系激活了AI无法触及的社会大脑网络。
因此,虽然在轻度到中度的情况下,机器人提供的认知行为疗法可能提供短期的症状缓解,但了解它们的局限性非常重要。目前,将机器人与人类护理结合使用,而不是取代它,是最安全的选择。
(作者:Pooja Shree Chettiar,德克萨斯A&M大学医学科学博士候选人)
(免责声明:Pooja Shree Chettiar不为任何可能从本文中受益的公司或组织工作、咨询、持有股份或接受资金,且除学术任命外,没有披露任何相关从属关系。)
本文根据知识共享许可协议从The Conversation重新发布。阅读原文。
(除标题外,此故事未由NDTV工作人员编辑,而是从联合供稿中发布的。)
【全文结束】

