美国达特茅斯学院的研究人员认为,人工智能可以提供可靠的心理治疗,从而区别于目前市场上充斥着未经验证甚至有时可疑的心理健康应用程序。
他们的应用程序Therabot旨在解决心理健康专业人员严重不足的问题。根据达特茅斯学院数据科学和精神病学助理教授尼克·雅各布森的说法,即使将现有的心理治疗师数量增加十倍,仍然无法满足需求。
“我们需要一些不同的方法来满足这一巨大的需求,”雅各布森告诉法新社。
达特茅斯团队最近发表了一项临床研究,证明了Therabot在帮助焦虑、抑郁和饮食障碍患者方面的有效性。一个新的试验计划将比较Therabot的结果与传统疗法的效果。
医学界似乎对这种创新持开放态度。美国心理学会(APA)医疗创新高级主管瓦勒·赖特描述了一个未来:“你将拥有一个基于科学、由专家共同创建并专门用于解决心理健康问题的AI生成的聊天机器人。”
赖特指出,这些应用程序“有很大的潜力,特别是如果它们负责任且合乎伦理地进行开发”,但她也表达了对年轻用户可能受到伤害的担忧。
雅各布森的团队已经投入近六年的时间来开发Therabot,安全性和有效性是他们的首要目标。项目联合负责人迈克尔·海因兹认为,急于盈利会损害安全性。
达特茅斯团队优先考虑理解他们的数字治疗师如何工作以及建立信任。他们还在考虑创建一个与Therabot相关的非营利实体,以使那些负担不起传统面对面治疗的人能够获得数字治疗。
随着开发者谨慎的态度,Therabot有可能在众多未经测试的应用程序中脱颖而出,这些应用程序声称能够解决孤独、悲伤和其他问题。据赖特说,许多应用程序似乎更多是为了吸引注意力和产生收入,而不是改善心理健康。
这些模式通过告诉人们他们想听的话来保持人们的参与度,但年轻用户往往缺乏辨别自己被操纵的能力。美国精神病学会心理健康技术委员会主席达琳·金承认AI在解决心理健康挑战方面的潜力,但也强调需要更多信息来确定真正的益处和风险。“还有很多问题,”金指出。
为了最小化意外结果,Therabot团队不仅挖掘了治疗记录和培训视频来为其AI应用程序提供动力,还手动创建了模拟患者-护理者对话。
虽然美国食品药品监督管理局理论上负责监管在线心理健康治疗,但它并不认证医疗设备或AI应用程序。相反,“FDA可能会在审查适当的上市前提交后授权其营销,”一位机构发言人表示。
FDA承认,“数字心理健康疗法有潜力改善患者对行为疗法的获取。”
Earkick的首席执行官赫伯特·贝伊为其初创公司的AI治疗师Panda辩护,称其“非常安全”。贝伊表示,Earkick正在进行对其数字治疗师的临床研究,该治疗师能够检测情绪危机迹象或自杀倾向,并发送求助警报。
“Character.AI发生的事情不可能在我们这里发生,”贝伊指的是佛罗里达州的一个案例,一名母亲声称聊天机器人的关系导致她14岁的儿子自杀。
贝伊认为,目前AI更适合日常心理健康支持,而不是处理生活中的重大崩溃。“凌晨两点打电话给你的治疗师是不可能的,”但治疗聊天机器人始终可用,贝伊指出。
一位名叫达伦的用户(他拒绝提供姓氏)发现ChatGPT有助于管理他的创伤后应激障碍,尽管OpenAI助手并非专门为心理健康设计。“我觉得它对我有效,”他说。“我会推荐给那些患有焦虑症并处于困境中的人。”
(全文结束)

