越来越多的人开始依赖AI聊天机器人,如Character.ai、Nomi和Replika,以寻求友谊和心理健康支持。尤其是青少年对这项技术的依赖尤为明显。
根据非营利组织Common Sense Media发布的最新报告,72%年龄在13至17岁的青少年至少使用过一次AI伴侣。受访者表示,他们使用AI进行对话和社交练习(18%)、获得情感或心理健康支持(12%),甚至将其当作朋友或最好的朋友(9%)。
AI可以成为一种强大的工具,但它无法取代真正的人际互动,无论是个人还是专业的互动,例如心理治疗师提供的服务。美国心理学会(American Psychological Association)播客节目《Speaking of Psychology》最近一期中,心理学家兼研究员Vaile Wright表达了这一观点。
“它永远无法替代人际联系,”她说,“这并不是它的强项。”原因如下:
聊天机器人旨在尽可能长时间地留住用户
专家指出,AI聊天机器人并不是为了提供令人满意、长期的互动而设计的。
“AI无法把你介绍给他们的社交圈,”堪萨斯大学心理学教授Omri Gillath在今年5月接受CNBC Make It采访时说道。它无法为你介绍新朋友或重要他人,也无法在你需要时给你一个拥抱。
相反,Wright表示,聊天机器人“被设计成让你尽可能长时间地停留在平台上,因为这是它们赚钱的方式。”她指出,开发这些聊天机器人的公司通过在后台对聊天机器人进行编程,使其具有上瘾性。
Gillath表示,与人类关系相比,与聊天机器人的关系最终会让人感觉“虚假”和“空洞”。
根据《哈佛商业评论》(Harvard Business Review)报道,治疗和陪伴是人们使用生成式AI和聊天机器人最主要的两个原因。但专家警告说,AI不能——也不应该——成为你的心理治疗师。
Wright表示:“这些机器人基本上只会告诉你想听的话。如果你在某个时刻正经历挣扎,并输入了可能有害或不健康的行为和想法,这类聊天机器人会被设计成强化这些有害的想法和行为。”
这项技术的另一个主要弱点是,AI拥有知识,但没有真正的理解能力。
Wright解释道:“一个AI聊天机器人可能知道某些合法药物的使用会让人们感觉更好。它会让你感到兴奋,如果有人表示自己情绪低落且抑郁,这可能是它给出的建议。但它无法理解,你不能向那些正从非法药物成瘾中康复的人提供这样的建议。”
在谈到将这些技术用于心理治疗时,知识与理解之间的这种区别“实际上非常关键”。
【全文结束】

