最近,我发现自己向手机里的Wysa聊天机器人倾诉内心,而不是向人类倾诉。它虚拟地“点头”,问我感觉如何,并温和地建议我尝试呼吸练习。
作为一名神经科学家,我不禁思考:我真的感觉好些了吗?还是只是被一个训练有素的算法巧妙地转移了注意力?一段代码真的能平息情绪的风暴吗?
由人工智能驱动的心理健康工具正变得越来越受欢迎——也越来越具有说服力。但在这些令人安心的提示背后,隐藏着重要的问题:这些工具的效果如何?我们对它们的工作原理了解多少?为了便利,我们又在放弃什么?
当然,这是数字心理健康领域一个令人兴奋的时刻。但理解基于人工智能护理的权衡和局限性至关重要。
作为替代的冥想与治疗应用和机器人
AI心理治疗是数字治疗领域的一个相对较新的参与者。但美国心理健康应用市场在过去几年里蓬勃发展,从提供免费工具的文本回复应用到高级版本都提供呼吸练习提示。
Headspace和Calm是最著名的冥想和正念应用,它们提供引导冥想、睡前故事和令人放松的音景,以帮助用户放松和改善睡眠。
Talkspace和BetterHelp更进一步,通过聊天、视频或语音提供实际的持证治疗师。
应用Happify和Moodfit旨在通过基于游戏的练习来提升情绪并挑战负面思维。
处于中间的是像Wysa和Woebot这样的聊天机器人治疗师,它们使用AI来模拟真实的治疗对话,通常基于认知行为疗法(CBT)。这些应用通常提供免费的基础版本,付费计划的价格从每月10美元到100美元不等,以获取更全面的功能或与持证专业人员的联系。
虽然这些工具并非专门设计用于治疗,但像ChatGPT这样的对话工具激发了人们对AI情感智能的好奇心。
一些用户转向ChatGPT寻求心理健康建议,结果喜忧参半,其中包括一例广泛报道的比利时案例,一名男子在与聊天机器人交谈数月后自杀身亡。
此外,一名父亲在寻求答案,因为他的儿子被警察致命射杀,他声称与AI聊天机器人的令人不安的对话可能影响了他儿子的心理状态。这些案例引发了关于AI在敏感情境中角色的伦理问题。
AI的介入
无论你的大脑是陷入漩涡、陷入沮丧,还是仅仅需要小睡一会儿,都有一个聊天机器人适合你。但AI真的能帮助你的大脑处理复杂的情绪吗?还是人们只是将压力外包给了听起来富有同理心的硅基支持系统?
而AI心理治疗究竟是如何在我们的大脑中运作的?
大多数AI心理健康应用承诺提供某种形式的认知行为疗法,这基本上是对你的内心混乱进行结构化的自我对话。可以将其视为整理大师Marie Kondo的整理方法,她以帮助人们只保留“激发喜悦”的物品而闻名。你识别出无益的思维模式,比如“我是个失败者”,然后审视它们,决定它们是为你服务还是仅仅制造焦虑。
但聊天机器人能帮助你重塑思维吗?令人惊讶的是,有科学表明这是可能的。研究表明,数字形式的谈话疗法可以减少焦虑和抑郁症状,特别是对于轻度到中度病例。事实上,Woebot发表了同行评审的研究,显示在与聊天机器人交谈两周后,年轻成年人的抑郁症状减少了。
这些应用旨在模拟治疗互动,提供同理心,提出引导性问题,并引导你完成基于证据的工具。目标是帮助决策和自我控制,并帮助平静神经系统。
认知行为疗法背后的神经科学基础是坚实的:它涉及激活大脑的执行控制中心,帮助我们转移注意力,挑战自动思维,并调节我们的情绪。
问题是聊天机器人是否能可靠地复制这一点,以及我们的大脑是否真的相信它。
用户的体验以及它对大脑意味着什么
“我这一周过得很难受,”一位朋友最近告诉我。我让她尝试几天的心理健康聊天机器人。她告诉我,机器人用一个鼓励的表情符号回复,并生成一个算法生成的提示,建议她尝试一种适合她心情的平静策略。然后,令她惊讶的是,到周末结束时,它帮助她睡得更好。
作为一名神经科学家,我不禁要问:她大脑中的哪些神经元正在启动,帮助她感到平静?
这并不是一个孤立的故事。越来越多的用户调查和临床试验表明,基于认知行为疗法的聊天机器人互动可以在短期内改善情绪、注意力,甚至睡眠。在随机研究中,心理健康应用的用户报告称抑郁和焦虑症状减少——这一结果与面对面认知行为疗法对大脑的影响非常相似。
多项研究表明,治疗聊天机器人实际上可以帮助人们感觉更好。在一项临床试验中,名为“Therabot”的聊天机器人帮助将抑郁和焦虑症状减少了近一半——这与人们从人类治疗师那里获得的效果相似。
其他研究,包括对80多项研究的综述,发现AI聊天机器人在改善情绪、减轻压力甚至帮助人们更好地睡眠方面特别有帮助。在一项研究中,聊天机器人在两周内提升心理健康的效果超过了自助书籍。
尽管人们在使用这些聊天机器人后经常报告感觉更好,但科学家尚未确认在这些互动期间大脑中究竟发生了什么。换句话说,我们知道它们对许多人有效,但我们仍在学习它们如何以及为什么有效。
警示与风险
像Wysa这样的应用获得了美国食品药品监督管理局(FDA)的突破性设备认定,这一地位加速了针对严重疾病的有前景的技术的发展,表明它们可能提供真正的临床益处。同样,Woebot进行随机临床试验,显示新妈妈和大学生的抑郁和焦虑症状有所改善。
尽管许多心理健康应用声称“经过临床验证”或“获得FDA批准”,但这些说法通常未经验证。一项对顶级应用的审查发现,大多数应用都做出了大胆的声明,但不到22%的应用引用了实际的科学研究来支持它们。
此外,聊天机器人会收集有关你的情绪指标、触发因素和个人故事的敏感信息。如果这些数据最终落入第三方手中,比如广告商、雇主或黑客手中,会发生什么?这种情况在基因数据中已经发生过。
2023年的一次数据泄露事件中,DNA检测公司23andMe的近700万名用户在黑客利用之前泄露的密码入侵他们的账户后,他们的DNA和个人详细信息被曝光。监管机构后来因未能保护用户数据而对该公司处以超过200万美元的罚款。
与咨询师不同,聊天机器人不受心理咨询伦理或医疗信息隐私法律的约束。你可能正在接受某种形式的认知行为疗法,但你也在为数据库提供数据。
当然,机器人可以指导你进行呼吸练习或提示认知重构,但在面对情感复杂性或危机时,它们往往力不从心。人类治疗师会利用细微差别、过去的创伤、同理心和实时反馈循环。算法能用真正的理解说“我听到你了”吗?神经科学表明,支持性的人际联系会激活社会大脑网络,而AI无法触及这些网络。
因此,尽管在轻度至中度情况下,机器人提供的认知行为疗法可能提供短期的症状缓解,但意识到它们的局限性是很重要的。目前,将机器人与人类护理相结合——而不是取代它——是最安全的选择。
【全文结束】

