最近,我在手机上向一个名为Wysa的聊天机器人倾诉心声。它以虚拟方式点头回应,问我感觉如何,并温和地建议我尝试呼吸练习。
作为一名神经科学家,我不禁思考:我真的感觉更好了吗?还是我只是被一个训练有素的算法巧妙地转移了注意力?一段代码真的能平息情绪风暴吗?
由人工智能驱动的心理健康工具正变得越来越受欢迎,也越来越具有说服力。但在这些安抚性的提示背后,隐藏着重要的问题:这些工具的效果如何?我们对它们的工作原理真正了解多少?而为了便利,我们又放弃了什么?
当然,这是数字心理健康领域的一个激动人心的时刻。但要理解基于AI的护理的权衡和局限性至关重要。
充当冥想与治疗的替代者:应用和机器人
AI治疗是数字治疗领域的一个相对较新的成员。但美国心理健康应用市场在过去几年蓬勃发展,从提供免费聊天回复工具的应用,到提供呼吸练习提示功能的高级版本应用,种类繁多。
Headspace 和 Calm 是两个最知名的冥想与正念应用,提供引导冥想、睡前故事和舒缓音景,帮助用户放松和改善睡眠。
Talkspace 和 BetterHelp 更进一步,通过聊天、视频或语音提供真正的持证治疗师。
Happify 和 Moodfit 则旨在通过基于游戏的练习来提升情绪、挑战负面思维。
处于中间位置的是像 Wysa 和 Woebot 这样的聊天机器人治疗师,它们使用AI来模拟真实的治疗对话,通常基于认知行为疗法(CBT)。这些应用通常提供免费基础版本,而更全面的功能或与持证专业人士的接触则需支付每月10至100美元不等的费用。
虽然并非专为治疗设计,像 ChatGPT 这样的对话工具也引发了人们对AI情感智能的好奇。
一些用户转向 ChatGPT 寻求心理健康建议,结果喜忧参半,其中包括一起在比利时广泛报道的案例:一名男子在与聊天机器人交谈数月后自杀身亡。
在另一些案例中,一位父亲在儿子被警察开枪打死后寻求答案,声称与AI聊天机器人的令人不安的对话可能影响了他儿子的心理状态。这些案例引发了关于AI在敏感情境中角色的伦理问题。
AI介入的领域
无论你的大脑是陷入混乱、沮丧,还是只是需要小憩一下,总有一款聊天机器人适合你。但AI真的能帮助你的大脑处理复杂情绪吗?还是人们只是将压力外包给了听起来富有同理心的硅基支持系统?
而AI治疗究竟是如何在我们大脑中起作用的?
大多数AI心理健康应用承诺提供某种形式的认知行为疗法,这基本上是对内心混乱的结构化自我对话。可以把它想象成日本整理专家近藤麻理惠(Marie Kondo)式的整理,她以帮助人们只保留“带来快乐”的物品而闻名。你识别出无益的思维模式,如“我是个失败者”,然后审视它们,决定它们是否对你有益,还是只会带来焦虑。
但聊天机器人真能帮助你重塑思维吗?令人惊讶的是,有研究表明这是可能的。研究表明,数字形式的谈话疗法可以减轻焦虑和抑郁症状,尤其是对轻度至中度病例。事实上,Woebot 发表了同行评审的研究,显示在与机器人聊天两周后,年轻人的抑郁症状有所减轻。
这些应用的设计目的是模拟治疗互动,提供同理心,提出引导性问题,并带领你使用基于证据的工具。目标是帮助决策和自我控制,并帮助平静神经系统。
认知行为疗法背后的神经科学基础是坚实的:它涉及激活大脑的执行控制中心,帮助我们转移注意力、挑战自动思维并调节情绪。
问题是,聊天机器人能否可靠地复制这一点,以及我们的大脑是否真的相信它。
一位用户的体验,以及它对大脑的意义
“我这周过得不太好,”一位朋友最近告诉我。我建议她尝试几天心理健康聊天机器人。她告诉我,这个机器人用一个鼓励的表情符号回应,并根据其算法生成的提示建议她尝试一种适合她情绪状态的冷静策略。然后,令她惊讶的是,到周末它帮助她睡得更好了。
作为一名神经科学家,我忍不住问:她大脑中的哪些神经元在起作用,让她感到平静?
这并非个例。越来越多的用户调查和临床试验表明,基于认知行为疗法的聊天机器人互动可以带来短期的情绪、注意力甚至睡眠的改善。在随机研究中,使用心理健康应用的用户报告了抑郁和焦虑症状的减少——这一结果与面对面认知行为疗法对大脑的影响非常相似。
几项研究表明,治疗聊天机器人实际上可以帮助人们感觉更好。在一项临床试验中,一个名为“Therabot”的聊天机器人帮助将抑郁和焦虑症状减少了近一半——与人们从人类治疗师那里获得的效果相似。
其他研究,包括对80多项研究的综述,发现AI聊天机器人在改善情绪、减轻压力,甚至帮助人们睡得更好方面特别有帮助。在一项研究中,聊天机器人在仅仅两周后就比自助书籍更能提升心理健康。
虽然人们在使用这些聊天机器人后经常报告感觉更好,但科学家尚未确切确认在这些互动过程中大脑中发生了什么。换句话说,我们知道它们对许多人有效,但我们仍在学习它们如何以及为何有效。
警示信号与风险
像 Wysa 这样的应用已获得美国食品药品监督管理局(FDA)的“突破性设备”认定,这一地位加速了针对严重疾病的有前景技术的审批,表明它们可能提供真正的临床益处。同样,Woebot 也进行了随机临床试验,显示其在新妈妈和大学生中改善抑郁和焦虑症状的能力。
尽管许多心理健康应用都标榜“临床验证”或“FDA批准”等标签,但这些说法往往未经证实。一项对顶级应用的审查发现,大多数应用都做出了大胆的声明,但不到22%的应用引用了实际的科学研究来支持这些说法。
此外,聊天机器人会收集关于你的情绪指标、触发因素和个人故事的敏感信息。如果这些数据最终落入第三方手中,例如广告商、雇主或黑客,会发生什么?这种情况曾发生在基因数据上。
在2023年的一次数据泄露事件中,DNA检测公司23andMe的近700万名用户在黑客使用之前泄露的密码入侵他们的账户后,其DNA和个人信息被曝光。监管机构随后因该公司未能保护用户数据而对其处以超过200万美元的罚款。
与临床医生不同,聊天机器人不受心理咨询伦理或医疗信息隐私法律的约束。你可能正在接受某种形式的认知行为疗法,但同时也在向数据库提供数据。
当然,聊天机器人可以引导你进行呼吸练习或提示认知重评,但在面对情感复杂性或危机时,它们往往力不从心。人类治疗师能够洞察细微之处、过去的创伤、共情和实时反馈循环。算法能以真正的理解说出“我听到你了”吗?神经科学表明,支持性的人类联系激活了AI无法触及的社会大脑网络。
因此,虽然在轻度至中度病例中,机器人提供的认知行为疗法可能带来短期的症状缓解,但意识到它们的局限性也很重要。目前,将机器人与人类护理结合使用,而不是取代它,是最安全的做法。
【全文结束】

