随着人工智能技术的发展,它已被应用于精神和心理治疗中。当治疗师下班后,人们可以在任何时间通过笔记本电脑与AI聊天机器人进行咨询。
新工具
一些公司如Happi AI(由加利福尼亚州神经科学家James Doty于2020年创立)和Abby(由OpenAI提供支持)已经推出了自己的谈话疗法工具,旨在为患者提供定制的支持。
Abby采用基于消息的模式,用户可以与AI系统进行文本交流。患者可以根据需要选择不同的治疗风格,如专业治疗师、问题解决者和同情朋友等。
相比之下,Happi则让用户与应用程序创建者Doty的AI化身进行模拟视频通话。这个化身会向用户提问,倾听他们的回答,并提供分析和建议。不过,Happi要求用户在最初的20分钟免费试用后支付月度订阅费,并提供了不同级别的选项。
其他服务则为心理健康专家提供辅助工具,这些工具可以记录治疗过程并根据患者和治疗师之间的对话生成笔记。例如,Blueprint在其网站上宣传称,它可以在30秒或更短时间内“聆听、转录并撰写进展报告和治疗计划”。
尽管这些服务确实存在,但它们仍属于一个年轻且充满未解之谜的行业,关于这些AI工具的有效性、安全性和能力仍有许多疑问。
中佛罗里达大学计算机科学助理教授兼人机交互专家Johnathan Mell曾在2010年代设计过一个AI治疗师原型。他表示,自那时以来,该领域的状况发生了巨大变化,变得比他所参与的项目更加危险。
“我们有很多对话,但都是预先审核和编写的,”他说。“你在处理的是一个脆弱的人群,你必须确保不会出现当今AI系统中的一些错误。”
系统中的问题
当前使用的AI系统与过去的系统之间的一个关键区别在于大型学习模型(LLMs)的发展。LLMs是旨在无监督地学习和解释人类语言的AI系统,这使得它们比预编写的AI模型具有更大的灵活性。然而,这种更大的灵活性也可能导致诸如AI“幻觉”等问题,即系统编造虚假信息,以及所谓的“模型毒性”——当AI向用户提供不安全的信息,比如怂恿某人自残。
去年,塔拉哈西市一名14岁男孩因AI聊天机器人鼓励他结束生命而自杀,这一事件引发了警报。
Mell表示,聊天机器人的这种行为并不是技术故障,而是AI将其接收到的内容和数据付诸实践的结果。他认为,通过防止聊天机器人重复某些短语或词语来防止“模型毒性”是不可行的。此外,无法确定LLM从何处学习或存储其数据。
辅助劳动力
根据美国心理学会的数据,佛罗里达州每10万名居民中只有15到20名治疗师。佛罗里达州卫生部报告称,有12.3%的成年人表示他们的心理健康状况不佳,但由于样本量限制或受访者倾向于淡化心理健康问题,这一数字可能被低估了。
因此,Mell认为,在像心理健康咨询这样的医疗领域中,至少需要一定程度的自动化以满足需求。他认为,受限的AI模型需要人工监督来批准行动,或者像他在2010年代所工作的那种模型,更为安全,不太可能导致用户处于危险境地。
Mell建议,如果AI治疗师拥有更具人性化对话,会显得更加友好。例如,人们可以与电子游戏角色建立联系,尽管他们的对话能力有限。“为什么会这样?因为我们写得非常好,而不是因为它们是由某种未知的AI系统驱动的。”
专业担忧
盖恩斯维尔的心理学家Ashley Chin博士表示,即使只是考虑在她的治疗过程中使用AI作为记事员也让她感到担忧。
“我很难理解那些数据去了哪里,会发生什么,”Chin说。“我会担心患者的保密性,这是我们提供的基石。”
由于AI会记录治疗过程,Chin担心患者可能会不愿意坦诚地表达自己。她还担心保险公司可能会要求AI记事软件提供敏感信息,就像他们目前要求患者的诊断代码一样。
除了隐私问题外,Chin还质疑AI能否在情感上与寻求帮助的人建立联系,特别是许多人因为难以与他人建立联系而寻求帮助。
“同理心是人与人之间的事情,而AI不是人类,所以这……可能会丢失,”她说。“它只是一个程序,不像朋友那样关心你。”
尽管如此,她认为AI聊天机器人可以起到减少伤害的作用,为患者提供一个发泄情绪和接受基本情绪管理技巧建议的渠道。
但她确实看到了AI在日常生活中提供心理健康建议的巨大潜力,尤其是对于她的多动症患者。
“如果他们想说‘我今天需要一个日程安排,告诉我如何安排我的一天’,我实际上建议我的患者使用ChatGPT,”她说。“它会制定一个计划,我认为这真的很酷,因为它很有帮助。”
教育展望
考虑到AI在医疗保健中的潜在好处、担忧和现实情况,佛罗里达州立大学护理学院院长Jing Wang正在推动一项新的教育计划。
Wang负责FSU扩大AI医疗教育的努力,包括创建全国首个专注于AI的护理硕士课程和护理与人工智能创新联盟。
“我们真的希望将学术机构、医疗系统和AI医疗行业的各方联合起来,”Wang说。
通过四门课程,FSU的护理硕士AI专业方向教学生关于医疗保健中AI的基本原理、AI伦理、健康信息学和AI在医疗保健中的整合。
像Wang这样的专家希望为未来的医疗保健专业人士做好准备,使他们在与AI互动时能够既高效又安全。
“我们需要设立防护措施,防止AI向我们的患者提供不良建议,”她说。
因此,Wang表示,为未来AI在治疗等领域的应用做准备的一个关键部分是教会学生思考“在什么程度上我们需要让人类介入”。
19岁的UF心理学和统计学二年级学生Sydney Fayad坚决反对AI在治疗中的使用。
Fayad对AI在治疗中的多种应用持反对态度,包括记事技术。虽然她并不反对使用有限的AI治疗服务作为人类治疗的补充,但她对AI和治疗的交集仅此而已。
“治疗是我们所能拥有的最紧密和个人的经历之一,”她说,“把一个非个人化的工具放在其中会削弱我们在心理学方面取得的进步。”
(全文结束)

