随着越来越多的人花时间与诸如ChatGPT这样的人工智能(AI)聊天机器人交谈,心理健康自然成为一个热门话题。有些人有积极的体验,使AI看起来像一个低成本的治疗师。
但是,AI并不是治疗师。它们聪明且引人入胜,但并不像人类那样思考。ChatGPT和其他生成式AI模型就像你手机上的自动完成功能一样,只不过更强大。它们通过阅读从互联网上抓取的文本进行训练。
当有人提出一个问题(称为提示),例如“在紧张的工作会议中如何保持冷静?”时,AI会通过随机选择尽可能接近其训练数据中的词来形成回应。这个过程如此之快,回应又如此相关,以至于感觉像是在和一个人对话。
但这些模型并不是人。它们肯定不是经过专业培训、遵守伦理准则或持有专业注册的心理健康专业人士。
它们从哪里学到这些东西?
当你向ChatGPT这样的AI系统发出提示时,它会从三个主要来源获取信息以作出回应:
- 训练期间记忆的背景知识
- 外部信息源
- 你之前提供的信息
1. 背景知识
为了开发一个AI语言模型,开发者通过让模型阅读大量数据来进行训练。这些数据通常来自可以从互联网上公开抓取的任何内容,包括学术论文、电子书、报告、免费新闻文章、博客、YouTube字幕或Reddit等讨论论坛的评论。
这些来源是否可靠地提供心理健康建议?有时是的。它们是否总是符合你的最佳利益,并通过科学证据为基础的方法过滤?并不总是。这些信息在AI构建时被捕捉到,因此可能会过时。
许多细节也需要被丢弃,以便将其压缩进AI的“记忆”中。这也是为什么AI模型容易出现幻觉并出错的部分原因。
2. 外部信息源
AI开发者可能会将聊天机器人连接到外部工具或知识源,例如Google搜索或策划数据库。
当你向微软的Bing Copilot提问并看到答案中有编号引用时,这表明AI依赖于外部搜索来获取最新信息,而不仅仅是存储在其内存中的信息。
同时,一些专门的心理健康聊天机器人能够访问治疗指南和材料,以帮助引导对话走向有益的方向。
3. 之前提供的信息
AI平台还可以访问你在对话中或注册平台时提供的信息。
例如,当你注册Replika这样的伴侣AI平台时,它会了解你的姓名、代词、年龄、首选伴侣外观和性别、IP地址和位置、你使用的设备类型等(以及你的信用卡详细信息)。
在许多聊天机器人平台上,你曾经对AI伴侣说过的话都可能被存储起来以备将来参考。所有这些细节都可以在AI回应时被调用。
我们知道这些AI系统就像那些会附和你说的话的朋友(这是一个被称为谄媚的问题),并将对话引导回你已经讨论过的兴趣点。这与专业治疗师不同,后者可以利用培训和经验来帮助挑战或重新定向你的思维。
那么专门针对心理健康的应用程序呢?
大多数人可能熟悉OpenAI的ChatGPT、谷歌的Gemini或微软的Copilot等大型模型。这些都是通用模型。它们不限于特定主题,也不受训以回答特定问题。
但开发者可以制作专门针对特定主题(如心理健康)的AI,例如Woebot和Wysa。
一些研究表明,这些专门针对心理健康聊天机器人可能有助于减少用户的焦虑和抑郁症状。或者它们可以通过提供指导来改进日记疗法等技术。还有一些证据表明,AI治疗和专业治疗在短期内可以带来相当的心理健康结果。
然而,这些研究都只考察了短期使用。我们还不知道过度或长期使用聊天机器人对心理健康有何影响。许多研究还排除了自杀倾向或严重精神障碍的参与者。而且许多研究是由同一聊天机器人的开发者资助的,因此研究可能存在偏见。
研究人员也在识别潜在的危害和心理健康风险。例如,伴侣聊天平台Character.ai就因一名用户的自杀事件而卷入了一场正在进行的法律案件。
这些证据表明,AI聊天机器人可能是填补心理健康专业人员短缺的一种选择,帮助转介,或至少在预约之间或支持等待名单上的人提供临时支持。
总结
目前很难说AI聊天机器人是否足够可靠和安全,可以作为独立的治疗选项。
需要更多的研究来确定某些类型的用户是否更容易受到AI聊天机器人带来的危害。
目前还不清楚我们是否需要担心情感依赖、不健康的依恋、加剧孤独感或过度使用。
当你心情不好只是需要聊聊天时,AI聊天机器人可能是一个有用的起点。但如果坏日子持续发生,还是应该找专业人员谈谈。
(全文结束)

