当比较由心理治疗师撰写的回应与由ChatGPT撰写的回应时,后者通常被评为更高,这是根据2月12日发表在开放获取期刊《PLOS Mental Health》上的一项研究。该研究由俄亥俄州立大学(The Ohio State University)的H. Dorian Hatch及其同事进行,Hatch同时也是Hatch Data and Mental Health的联合创始人。
机器能否成为治疗师的问题,由于与生成式人工智能(AI)合作的一些好处而受到了越来越多的关注。尽管先前的研究发现,人们难以区分机器和人类的回应,但最近的研究表明,AI可以富有同理心地写作,并且其生成的内容无论是在心理健康专业人士还是自愿服务使用者中都获得了高度评价,甚至经常优于专业人士编写的内容。
在他们最新的研究中,Hatch及其同事涉及超过800名参与者,结果显示尽管语言模式存在差异,但在呈现18个夫妻治疗场景时,人们很少能分辨出回应是由ChatGPT还是由治疗师编写的。这一发现呼应了艾伦·图灵(Alan Turing)的预测,即人类将无法区分由机器和人类编写的回应。此外,ChatGPT编写的回应通常在核心心理治疗指导原则方面获得更高的评分。
进一步分析显示,ChatGPT生成的回应通常比治疗师撰写的回应更长。在控制长度后,ChatGPT继续使用比治疗师更多的名词和形容词。考虑到名词可以用来描述人物、地点和事物,形容词可以提供更多的背景信息,这可能意味着ChatGPT比治疗师提供了更广泛的背景信息。更广泛的背景信息可能导致受访者在治疗的共同因素(所有治疗方法中为了达到预期结果而共有的成分)方面对ChatGPT的回应给予更高的评分。
根据作者的说法,这些结果可能是早期迹象,表明ChatGPT有潜力改善心理治疗过程。特别是,这项工作可能会导致测试和创建心理治疗干预措施的不同方法的发展。鉴于越来越多的证据表明生成式AI可以在治疗环境中发挥作用,并且它很可能很快会被整合到治疗环境中,作者呼吁心理健康专家扩大他们的技术素养,以确保AI模型得到负责任的专业人员的精心培训和监督,从而提高护理的质量和可及性。
作者补充道:“自从ELIZA发明近六十年以来,研究人员一直在争论AI是否可以扮演治疗师的角色。虽然仍有许多重要的悬而未决的问题,但我们的研究结果表明答案可能是‘是’。我们希望我们的工作能够激发公众和心理健康从业者提出关于在心理健康治疗中整合AI的伦理、可行性和效用的重要问题,以免AI列车离站。”
(全文结束)

