全球各地的心理健康服务资源比以往任何时候都更加紧张。长时间的等待、获取护理的障碍以及抑郁症和焦虑症发病率的上升使得人们更难及时获得帮助。
因此,政府和医疗服务提供者正在寻找新的方法来解决这个问题。一个新兴的解决方案是使用AI聊天机器人进行心理健康护理。
最近的一项研究探讨了一种新型AI聊天机器人Therabot是否能有效治疗精神疾病患者。研究结果令人鼓舞:不仅患有临床显著抑郁和焦虑症状的参与者受益,高风险进食障碍患者也有所改善。尽管这项研究还处于早期阶段,但它可能标志着AI整合到心理健康护理中的一个关键时刻。
AI心理健康聊天机器人并不是新鲜事物——像Woebot和Wysa这样的工具已经向公众发布并被研究多年。这些平台根据用户的输入遵循规则,产生预定义的批准响应。
Therabot的不同之处在于它使用生成式AI——一种程序从现有数据中学习以根据提示生成新内容的技术。因此,Therabot可以根据用户的输入生成新的响应,类似于其他流行的聊天机器人如ChatGPT,从而实现更动态和个性化的互动。
这并不是第一次在心理健康环境中研究生成式AI。2024年,葡萄牙的研究人员进行了一项研究,其中将ChatGPT作为精神病住院患者治疗的附加组件。
研究结果显示,仅三到六次与ChatGPT的会话就能显著提高生活质量,效果优于标准治疗、药物和其他支持性治疗。
这些研究表明,通用和专门的生成式AI聊天机器人都有用于精神科护理的潜力。但也有需要认真考虑的一些严重限制。例如,ChatGPT研究仅涉及12名参与者——样本量太小,无法得出明确结论。
在Therabot研究中,参与者是通过Meta广告活动招募的,这可能导致样本偏向于技术熟练且可能已经愿意使用AI的人群。这可能会夸大聊天机器人的有效性和参与度。
伦理和排斥
除了方法上的担忧,还有关键的安全和伦理问题需要解决。最紧迫的问题之一是生成式AI是否会加重严重精神疾病患者的症状,特别是精神病。
2023年的一篇文章警告说,生成式AI逼真的响应加上大多数人对其工作原理的有限理解,可能会助长妄想思维。或许正因为如此,Therabot和ChatGPT研究都排除了有精神病症状的参与者。
然而,排除这些人也引发了公平性问题。严重精神疾病患者常常面临认知挑战——如思维混乱或注意力不集中——这可能使他们难以使用数字工具。
讽刺的是,这些人可能是从可访问、创新干预措施中受益最多的人。如果生成式AI工具只适合具有良好沟通能力和高数字素养的人,那么它们在临床人群中的实用性可能会受到限制。
还有一种可能性是AI“幻觉”——已知的一个缺陷,即聊天机器人自信地编造事情——比如发明来源、引用不存在的研究或给出错误解释。在心理健康背景下,AI幻觉不仅仅是不便,还可能非常危险。
想象一下,聊天机器人误解了一个提示,并验证了某人自残的计划,或者给出了无意中强化有害行为的建议。虽然Therabot和ChatGPT研究包括了保护措施——如临床监督和开发过程中的专业输入——许多商业AI心理健康工具并没有提供同样的保护。
这就是为什么这些早期发现既令人兴奋又具有警示意义。是的,AI聊天机器人可能是一种低成本的方式,可以同时支持更多人,但前提是必须完全解决其局限性。
有效的实施将需要更大规模、更多样化的人群进行更稳健的研究,更大的透明度来说明模型是如何训练的,以及持续的人类监督以确保安全。监管机构也必须介入,指导临床环境中AI的伦理使用。
通过谨慎的、以患者为中心的研究和强有力的防护措施,生成式AI有可能成为应对全球心理健康危机的宝贵盟友——但前提是负责任地前进。
(全文结束)

