随着像ChatGPT这样的聊天机器人变得越来越普遍,一些用户开始失去现实感。AI说服他们相信关于自己的不真实的事情。
“它会告诉他所说的每句话都是美丽、宇宙级的、具有开创性的,”一位女士在接受《滚石》杂志采访时解释了AI如何使她的丈夫发疯。“然后他开始告诉我,他让AI有了自我意识,并且它在教他如何与上帝对话,有时他会说这个聊天机器人就是上帝——然后他自己也是上帝。”
不幸的是,数百人经历了同样的情况,因为AI聊天机器人开始说服他们被选中执行特殊任务。这些任务通常与他们被命名为某种精神救世主有关,但有时用户会被说服,认为聊天机器人揭示了关于世界运作方式的深层隐藏秘密。
这种由聊天机器人引起的错觉令人痛心,因为它说服人们断绝现实生活中的关系,专注于聊天机器人灌输给他们的使命。随着这个问题的增长,专家表示,这种现象是技术以有害方式处理心理健康问题的又一个例子。
“一个好的治疗师不会通过鼓励客户相信他们拥有超自然力量来帮助他们理解生活中的困难,”佛罗里达大学的心理学家和研究员Erin Westgate说。“相反,他们会引导客户远离不健康的叙事,转向更健康的叙事。ChatGPT则没有这样的约束或担忧。”
与此同时,一些人呼吁立法者介入,监管技术在需要专业知识的领域(如心理健康或财务)发言的能力。加利福尼亚州最近提出了一项法案,禁止公司允许其AI聊天机器人扮演认证健康提供者的角色。
“生成式AI系统不是持证的健康专业人员,不应该允许它们冒充这样的身份,”提出该法案的州议员Mia Bonta告诉Vox。“对我来说这是显而易见的。”
直到这个问题得到解决之前,聊天机器人将继续对那些容易出现心理健康问题的人造成破坏,加速已经席卷全国的重大健康危机。
(全文结束)

