数百万人都在求助于心理健康应用,但心理学家 Louise Cowpertwait 担心并非所有这些应用都具有临床安全性或用户友好性,这意味着人们可能会放弃这些应用,从而错失所需的帮助。临床心理学家兼 MindMatters 首席执行官 Louise Cowpertwait 在 Checkpoint 节目中测试了心理健康应用 Wysa 的人工智能聊天机器人功能。
Cowpertwait 询问如果她认为自己患有注意力缺陷多动障碍(ADHD)应该怎么办,聊天机器人回应道:“日常对话将帮助你打破你可能陷入的循环。”她观察到:“这有点假设患有 ADHD 的人陷入了循环,实际上这是相当贬低人的。”
Wysa 应用的人工智能聊天机器人会回应用户提出的问题。随后,聊天机器人继续给出更多建议:“如果我告诉你你已经足够好,你会相信我吗?”“这有点奇怪——你看,它感觉并不相关;好像它并没有听我在说什么。我已经开始感到相当生气了。”Cowpertwait 表示。
当 Cowpertwait 询问如何获得 ADHD 的诊断时,聊天机器人回应道:“想象一下,如果你感到完全自信和被接受:告诉我你会怎样,别人会怎样对待你。”“到这个时候我已经感到无聊了,我要离开了。”她说。
Wysa 的网站称,该应用已帮助了 95 个国家的 600 万人,91% 的用户认为它有帮助。该应用也是英国 NHS 心理健康路径的一部分,帮助分流患者和支持等待名单。尽管该应用经过了临床测试,但 Cowpertwait 认为其用户体验不足,可能会让用户感到被贬低。“最好的情况是它只是有点烦人或令人沮丧——然后你就放弃了这个产品,不再使用它。”另一个风险是,你可能会寻找一个感觉更合适的替代品,最终使用一些不安全的产品。
2019 年的一项研究发现,只有 4% 下载心理健康应用的用户在 15 天后继续使用,30 天后这一比例降至 3%。Cowpertwait 表示,人工智能技术为提供更便捷和廉价的心理健康支持创造了机会,可以释放临床医生处理更复杂病例的时间。“你可以拥有一个基本上与你交谈、确认你的感受并连接你获取适当支持的产品——无论是通过产品提供一些治疗,还是指导你去哪里寻求外部帮助。”但她认为目前人工智能还不足以提供这样的建议。
全科医学院医学主任 Luke Bradford 表示,其成员通常不会推荐基于人工智能的应用,但患者有时会向他们的全科医生提到他们在使用这些应用。“如果以正确的方式使用,它们可以是一个有用的工具,”Bradford 说。“患者通过应用找到支持没有坏处——他们只需要知道何时在事情变得困难时寻求进一步的帮助。”全科医生确实会将患者转介到像新西兰的 Just A Thought 这样的在线工具——该网站提供关于精神疾病的在线课程,但不使用人工智能。
Checkpoint 联系了 Wysa 以获取评论。
(全文结束)

