达特茅斯学院的研究人员认为,人工智能可以提供可靠的心理治疗,从而区别于市场上那些未经验证且有时可疑的心理健康应用程序。
他们的应用程序Therabot旨在解决心理健康专业人士严重短缺的问题。据达特茅斯学院数据科学和精神病学助理教授尼克·雅各布森(Nick Jacobson)介绍,即使将现有的治疗师数量增加十倍,也仍然无法满足需求。
“我们需要一些不同的方法来应对这一巨大的需求,”雅各布森在接受法新社采访时说。
达特茅斯团队最近发表了一项临床研究,证明Therabot在帮助患有焦虑症、抑郁症和饮食障碍的人方面是有效的。他们计划进行一项新的试验,将Therabot的结果与传统疗法进行比较。
医学界似乎对这种创新持开放态度。美国心理学会(APA)医疗创新高级主管瓦伊尔·赖特(Vaile Wright)描述了一个未来,在这个未来中,“你将拥有一个基于科学、由专家共同创建并专门用于解决心理健康问题的人工智能生成的聊天机器人。”
赖特指出,这些应用程序“有很大的潜力,特别是如果它们负责任且合乎伦理地开发的话。”但她也表达了对年轻用户可能受到伤害的担忧。
雅各布森的团队已经投入近六年的时间来开发Therabot,安全性和有效性是他们的首要目标。项目联合负责人迈克尔·海因兹(Michael Heinz)认为,急于追求利润会损害安全性。
达特茅斯团队优先考虑的是理解他们的数字治疗师如何工作,并建立信任。他们还在考虑创建一个与Therabot相关的非营利组织,使数字治疗能够惠及那些负担不起传统面对面治疗的人。
随着开发者谨慎的态度,Therabot有可能在众多未经测试的应用程序中脱颖而出,这些应用程序声称可以解决孤独、悲伤等问题。据赖特称,许多应用程序似乎更多是为了吸引注意力和产生收入,而不是改善心理健康。
这些模型通过告诉人们他们想听的内容来保持用户的参与度,但年轻的用户往往缺乏辨别自己是否被操纵的能力。
美国精神病学协会心理健康技术委员会主席达琳·金(Darlene King)承认人工智能在解决心理健康挑战方面的潜力,但强调需要更多信息才能确定真正的益处和风险。“还有很多问题有待解答,”金指出。
为了尽量减少意外结果,Therabot团队不仅从治疗记录和培训视频中提取数据来为其AI应用程序提供支持,还手动创建了模拟患者-护理者对话。
虽然美国食品药品监督管理局(FDA)理论上负责监管在线心理健康治疗,但它并不认证医疗器械或AI应用程序。相反,FDA的一位发言人表示,“FDA可能会在审查适当的上市前提交后授权其营销。”
FDA承认“数字心理健康疗法有潜力改善患者获得行为疗法的机会。”
Earkick公司的首席执行官赫伯特·贝(Herbert Bay)为其初创公司的人工智能治疗师Panda辩护,称其“非常安全”。贝表示,Earkick正在对其数字治疗师进行临床研究,该治疗师能够检测情绪危机迹象或自杀念头,并发送求助警报。
“Character.AI发生的事情不可能发生在我们身上,”贝说,他指的是佛罗里达州的一个案例,一名母亲声称聊天机器人的关系导致她14岁的儿子自杀。
贝认为,目前人工智能更适合日常心理健康支持,而不是处理重大崩溃的情况。“凌晨两点打电话给你的治疗师是不可能的,”但治疗聊天机器人始终可用,贝指出。
一位名叫达伦(Darren)的用户发现ChatGPT在他管理创伤后应激障碍方面很有帮助,尽管OpenAI助手并不是专门为心理健康设计的。“我觉得它对我有效,”他说。“我会推荐给那些焦虑并在困境中的人。”
(全文结束)

