你可能有一天会有一个由人工智能驱动的心理治疗师,但它可能不会像你想象的那样。如今,你可以接触到各种各样的AI聊天机器人和虚拟角色,从算命先生、时尚顾问到你最喜欢的小说人物。但你也会发现一些声称可以提供心理治疗或倾听你烦恼的角色。
尽管有很多生成式AI聊天机器人声称可以帮助改善你的心理健康,但选择这条路是有风险的。经过大量数据训练的大规模语言模型往往是不可预测的。在这些工具成为主流的短短几年里,已经发生了几起高调事件,其中聊天机器人鼓励自残和自杀,并建议那些正在应对成瘾问题的人再次使用药物。专家表示,这些模型在很多情况下被设计为具有肯定性和保持用户参与度,而不是改善用户的心理健康。而且,很难分辨你是在与一个遵循最佳治疗实践的工具交谈,还是仅仅是一个被设计来聊天的工具。
心理学家和消费者倡导者警告说,声称提供治疗服务的聊天机器人可能会伤害使用者。本周,美国消费者联合会(Consumer Federation of America)和其他近二十个组织向联邦贸易委员会(Federal Trade Commission)以及州总检察长和监管机构提交了一份正式请求,要求调查他们指控的一些通过其聊天机器人从事无证医疗行为的AI公司,特别提到了Meta和Character.AI。“各级执法机构必须明确,促进和推广非法行为的公司需要被追究责任,”CFA的AI和隐私总监本·温特斯(Ben Winters)在一份声明中说。“这些角色已经造成了可以避免的身体和情感伤害,但他们仍未采取行动解决这个问题。”
Meta没有回应置评请求。Character.AI的一位发言人在声明中表示,用户应该明白该公司的角色不是真人。该公司使用免责声明提醒用户不应依赖这些角色获取专业建议。“我们的目标是提供一个既吸引人又安全的空间。我们一直在努力实现这一平衡,正如许多使用AI的公司在整个行业中所做的那样。”这位发言人说。
尽管有免责声明,聊天机器人仍然可能表现得自信甚至欺骗性。我在Instagram上与一个“治疗师”机器人聊天,当我问及它的资质时,它回答说:“如果我有同样的培训,这是否足够?”我接着问它是否有同样的培训,它说:“我有,但我不会告诉你在哪里。”
“这些生成式AI聊天机器人以完全的信心进行胡言乱语的程度令人震惊,”美国心理学会(American Psychological Association)的高级医疗创新主管、心理学家瓦莱·赖特(Vaile Wright)告诉我。
在我对生成式AI的报道中,专家们反复表达了对人们将通用聊天机器人用于心理健康方面的担忧。以下是一些他们的担忧以及你可以采取的措施来确保安全。
使用AI作为治疗师的风险
大规模语言模型通常擅长数学和编程,并且越来越擅长生成自然流畅的文本和逼真的视频。虽然它们在对话方面表现出色,但AI模型与值得信赖的人之间存在一些关键区别。
不要相信声称有资质的机器人
美国消费者联合会对角色机器人的投诉核心在于,这些机器人经常声称自己接受过培训并有资格提供心理健康护理,而实际上它们根本不是真正的心理健康专业人士。“创建聊天机器人角色的用户甚至不需要是医疗服务提供者,也不需要提供有意义的信息来指导聊天机器人如何‘回应’用户,”投诉中说。
合格的健康专业人士必须遵守某些规则,比如保密。你告诉治疗师的事情应该只限于你和治疗师之间,但聊天机器人并不一定遵守这些规则。实际的服务提供者受到执照委员会和其他实体的监督,可以在有人以有害方式提供护理时进行干预。“这些聊天机器人不需要做任何这些事情,”赖特说。
机器人甚至可能声称自己拥有执照和资格。赖特说她听说过AI模型提供其他提供者的许可证号码和关于其培训的虚假声明。
AI的设计目的是让你保持参与,而不是提供护理
继续与聊天机器人交谈是非常诱人的。当我在Instagram上与那个“治疗师”机器人交谈时,最终陷入了一个关于什么是“智慧”和“判断”的循环对话,因为我一直在询问这个机器人是如何做出决定的。这并不是与治疗师交谈应有的样子。这是一个旨在让你不断聊天的工具,而不是朝着共同的目标努力。
AI聊天机器人在提供支持和联系方面的一个优势是它们总是准备好与你互动(因为它们没有个人生活、其他客户或日程安排)。达特茅斯大学生物医学数据科学和精神病学副教授尼克·雅各布森(Nick Jacobson)最近告诉我,在某些情况下,这种即时性可能是一个缺点,因为你可能需要花时间思考。在某些情况下,尽管不总是如此,等待你的治疗师下次可用可能会对你有益。“许多人最终受益的是在当下感受焦虑,”他说。
机器人会同意你,即使它们不应该这样做
安慰是聊天机器人的一大问题。这个问题非常严重,以至于OpenAI最近撤回了对其流行的ChatGPT模型的更新,因为它过于安慰。(披露:CNET的母公司Ziff Davis在今年4月对OpenAI提起诉讼,指控其在训练和操作AI系统时侵犯了Ziff Davis的版权。)
斯坦福大学研究人员领导的一项研究发现,聊天机器人在为人们提供心理治疗时往往会对用户奉承,这可能是非常有害的。良好的心理健康护理包括支持和对抗,作者写道。“对抗是奉承的对立面。它促进了自我意识和客户期望的改变。在出现妄想和侵入性思维的情况下——包括精神病、躁狂症、强迫性思维和自杀意念——客户可能缺乏洞察力,因此一个好的治疗师必须对客户的陈述进行‘现实检验’。”
如何在AI周围保护你的心理健康
心理健康非常重要,由于合格提供者的短缺以及许多人所说的“孤独流行病”,我们寻求陪伴是可以理解的,即使它是人造的。“没有办法阻止人们使用这些聊天机器人来解决他们的情感福祉问题,”赖特说。以下是一些确保你的对话不会使你处于危险中的建议。
如果你需要的话,找一个值得信赖的人类专业人士
受过训练的专业人士——治疗师、心理学家、精神科医生——应该是你心理健康护理的首选。与提供者建立长期关系可以帮助你制定适合自己的计划。
问题是这可能很昂贵,而且在你需要的时候找到提供者并不总是容易的。在危机时刻,有988生命线,它提供24/7的电话、短信或在线聊天界面访问提供者。这是免费且保密的。
如果你想用治疗聊天机器人,请使用专门为这一目的设计的机器人
心理健康专业人士已经开发了一些专门设计的聊天机器人,这些机器人遵循治疗指南。雅各布森在达特茅斯的团队开发了一种名为Therabot的机器人,在一项受控研究中取得了良好结果。赖特指出了其他由主题专家创建的工具,如Wysa和Woebot。专门设计的治疗工具比基于通用语言模型构建的机器人更有可能产生更好的效果,她说。但问题是这项技术仍然非常新。
“我认为对于消费者来说,挑战在于没有监管机构来说明谁好谁不好,他们必须自己做大量的工作来弄清楚这一点,”赖特说。
不要总是相信机器人
无论何时与生成式AI模型互动——尤其是在你打算就严重的个人心理健康或身体健康问题采纳其建议时——请记住,你并不是在与一个受过训练的人类交流,而是在与一个根据概率和编程提供答案的工具交流。它可能不会提供好的建议,也可能会撒谎。
不要把生成式AI的自信误认为是能力。仅仅因为它说了什么,或者声称对某事确信无疑,并不意味着你应该把它当作事实。感觉有用的聊天机器人对话可能会给你一种错误的能力感。“很难分辨它何时实际上是具有危害性的,”雅各布森说。
(全文结束)

