达特茅斯学院的研究人员认为,人工智能可以提供可靠的心理治疗,这与市场上充斥的未经验证且有时令人怀疑的心理健康应用程序有所不同。
他们的应用程序Therabot旨在应对心理健康专业人士的严重短缺。达特茅斯学院数据科学和精神病学助理教授尼克·雅各布森表示,即使将目前的治疗师数量增加十倍,仍然无法满足需求。“我们需要一些不同的东西来满足这一巨大的需求,”雅各布森在接受法新社采访时说。
达特茅斯团队最近发表了一项临床研究,证明Therabot在帮助患有焦虑、抑郁和饮食障碍的人方面是有效的。一项新的试验计划将Therabot的结果与传统疗法进行比较。
医学界似乎对这种创新持开放态度。美国心理学会(APA)医疗创新高级主任瓦伊尔·赖特描述了“一个未来,在那里你将拥有基于科学、由专家共同创建并专门用于解决心理健康问题的AI聊天机器人。”
赖特指出,这些应用程序“有很大的潜力,特别是如果它们负责任且合乎伦理地进行的话”,但她也表达了对年轻用户可能受到伤害的担忧。
雅各布森的团队迄今为止已经投入近六年的时间来开发Therabot,主要目标是确保安全性和有效性。项目联合负责人、精神病学家迈克尔·海因兹认为,急于盈利会损害安全性。
达特茅斯团队优先考虑理解他们的数字治疗师如何工作,并建立信任。他们还在考虑创建一个与Therabot相关的非营利实体,以使那些负担不起传统面对面治疗的人能够获得数字治疗。
随着开发者的谨慎态度,Therabot有可能在一个充斥着未经测试的应用程序声称可以解决孤独、悲伤和其他问题的市场中脱颖而出。赖特指出,许多应用程序似乎更注重吸引注意力和产生收入,而不是改善心理健康。
这些模型通过告诉人们他们想听的内容来保持人们的参与度,但年轻用户往往缺乏辨别自己是否被操纵的能力。美国精神病学协会心理健康技术委员会主席达琳·金承认,AI在解决心理健康挑战方面具有潜力,但强调需要更多信息才能确定真正的益处和风险。“还有很多问题,”金指出。
为了尽量减少意外结果,Therabot团队不仅从治疗记录和培训视频中提取数据来为其AI应用程序提供动力,还手动创建了模拟的患者-护理者对话。
虽然理论上美国食品药品监督管理局负责监管在线心理健康治疗,但它并不认证医疗设备或AI应用程序。相反,“FDA可能会在审查适当的上市前提交材料后授权其营销,”该机构发言人表示。
FDA承认“数字心理健康疗法有潜力提高患者获得行为疗法的机会。”
Earkick的首席执行官赫伯特·贝伊为其初创公司的AI治疗师Panda辩护,称其“非常安全”。贝伊表示,Earkick正在对其数字治疗师进行临床研究,该治疗师可以检测情绪危机迹象或自杀念头,并发送求助警报。
“发生在Character.AI上的事情不会发生在我们身上,”贝伊说,他指的是佛罗里达州的一个案例,一名母亲声称与聊天机器人的关系导致她14岁的儿子自杀。
贝伊认为,AI目前更适合日常心理健康支持,而不是处理重大崩溃的情况。“凌晨两点打电话给你的治疗师是不可能的,”贝伊指出,“但治疗聊天机器人始终可用。”
一位名叫达伦的用户发现ChatGPT在管理他的创伤后应激障碍方面很有帮助,尽管OpenAI助手并不是专门为心理健康设计的。“我觉得它对我有效,”他说。“我会推荐给那些焦虑和处于困境中的人。”
(全文结束)

