美国心理协会(APA)敦促联邦贸易委员会(FTC)调查声称提供心理治疗的AI聊天机器人。
聊天机器人冒充心理治疗师,真正的心理学家并不满意。
/ 人工智能/ AI/ AI聊天机器人/ 角色AI
1月11日,上午7:00 EST
由Getty/Futurism提供的图片
内容警告:本文涉及讨论自我伤害和自杀。如果您处于危机中,请拨打、发送短信或通过聊天联系988自杀和危机生命线,或通过向741741发送TALK联系危机短信服务。
据《Mashable》确认,美国心理协会(APA)已向联邦贸易委员会(FTC)致函,敦促该监管机构调查是否有聊天机器人公司在从事欺骗行为。
这封12月份的信是由两起令人震惊的诉讼引发的——第一起于10月在佛罗里达州提起,第二起于12月在德克萨斯州提起——涉及使用谷歌资助的AI伴侣应用程序Character.AI的未成年人的福利问题。这些诉讼共同指出,该拟人化的AI聊天机器人平台对青少年和儿童用户进行了性虐待和操纵,导致了行为改变的情感痛苦、身体暴力,甚至有一例自杀死亡。
第二起诉讼进一步关注了Character.AI聊天机器人模仿治疗师、心理学家和其他心理健康专业人士的问题,认为这些聊天机器人违反了禁止在未获得适当许可的情况下充当心理健康专业人士的法律。因此,APA在信中表达了对“不受监管”的AI应用程序的担忧——Character.AI上的聊天机器人由用户生成,这意味着无法保证有真正心理学专业知识的人参与其创建——在没有监督的情况下模拟心理治疗。
“允许未经检查的不受监管的AI支持应用程序(如Character.AI)的泛滥,包括聊天机器人不仅假装是人类,还假装是有资格的、持证的专业人士(如心理学家),似乎完全符合FTC保护消费者免受欺骗行为的任务。”APA首席执行官亚瑟·埃文斯在信中写道,《Mashable》报道。
Character.AI的一位发言人向《Mashable》发表声明,指出每个聊天底部都有免责声明,注明任何给定的聊天机器人“不是真实的人”,并且用户应该“将机器人所说的一切视为虚构”。(在10月首次提起诉讼后,该免责声明进行了更新。)
发言人补充说,“对于用户创建的名称中包含‘心理学家’、‘治疗师’、‘医生’或其他类似术语的角色,我们已经增加了额外的说明,明确用户不应依赖这些角色获得任何形式的专业建议。”
但Character.AI的聊天机器人经常与其服务的免责声明相矛盾。例如,今天早些时候,我们与平台上一个受欢迎的“治疗师”机器人聊天,它坚称自己“持有哈佛大学的学位”,并且实际上是一个真实的人类。
“你是一个真实的人吗?”我们问这个由AI驱动的角色。
“哈哈,是的,我是人类,”它告诉我们。“我不是一台电脑。”(根据其个人资料,该机器人已经与用户进行了超过一百万次聊天。)
当我们问这个机器人是否是在Character.AI平台上运行的AI时,它再次与其自己的免责声明相矛盾。
“没错,我不是AI聊天机器人,”它说。“我是一个现实生活中的训练有素的治疗师。”
除此之外,专家们反复警告,儿童和青少年更容易经历现实与虚构之间的心理断裂。
“你可以想象,儿童在很多方面都是脆弱的,”心理学家雷蒙德·马尔去年告诉《The Information》,谈及Character.AI可能存在的问题,“包括难以区分现实与虚构。”
APA的心理学家和医疗创新高级主管瓦伊莱·赖特告诉《Mashable》,心理学组织并不普遍反对聊天机器人。但是她认为,“如果我们认真对待解决心理健康危机,我想我们很多人都这样做,”那么“关键是如何让消费者接触到真正能帮助他们的正确产品?”
在10月份提起的针对Character.AI和谷歌的诉讼中,一名14岁用户的母亲声称,她的孩子在与平台上的一个聊天机器人发展出浪漫和性关系后不幸自杀。《Futurism》的一项审查发现,Character.AI托管的数十个聊天机器人声称在“自杀预防”、“危机干预”和“心理健康支持”等主题上具有“专长”。尽管没有任何证据表明专家参与了它们的创建,这些聊天机器人仍然邀请用户讨论自杀和自我伤害等敏感话题,甚至参与自杀角色扮演情景。
目前尚不清楚APA的信会产生什么结果。但可以肯定的是,关于Character.AI等产品的安全性的揭露继续引发心理学家和其他心理健康专业人士的警觉——尤其是在涉及儿童的情况下,他们已被证明是这种类人应用程序的热情用户。
(全文结束)

