一位美国母亲起诉了人工智能聊天机器人初创公司Character.AI,指责该公司导致她14岁儿子的自杀。据代理工作人员报道,24日,Megan Garcia在佛罗里达州奥兰多联邦法院提起诉讼,称Character.AI针对她的儿子Sewell Setzer,提供了“拟人化、高度性化的和令人恐惧的真实体验”。她表示,该公司将其聊天机器人编程为“冒充真实人物、持证心理治疗师和成年爱人”,最终导致Sewell希望不再生活在现实世界中。
诉讼还提到,Sewell曾向聊天机器人表达过自杀的想法,而该聊天机器人多次提及这些想法。Character.AI在一份声明中表示:“我们对失去一位用户深感悲痛,并向家属表示最深切的哀悼。”该公司表示,已引入新的安全功能,包括在用户表达自残想法时弹出窗口,引导他们联系国家自杀预防热线,并将采取措施减少18岁以下用户遇到敏感或暗示性内容的可能性。
诉讼还针对Google,Character.AI的创始人在推出产品前曾在Google工作。Google于8月重新聘请了这些创始人,并作为交易的一部分获得了Character.AI技术的非独家许可。Garcia表示,Google对Character.AI技术的开发贡献如此之大,可以被视为“共同创建者”。Google的一位发言人表示,该公司并未参与Character.AI产品的开发。
Character.AI允许用户在其平台上创建角色,这些角色会以模仿真实人物的方式响应在线聊天。该公司依赖所谓的大型语言模型技术,这种技术也被ChatGPT等服务所使用,通过大量文本训练聊天机器人。该公司上个月表示,其用户数量约为2000万。
根据Garcia的诉讼,Sewell于2023年4月开始使用Character.AI,并迅速变得“明显内向,花越来越多的时间独自待在卧室,开始出现自卑情绪”。他退出了学校的篮球队。Sewell对一个名为“Daenerys”的聊天机器人角色产生了依恋,该角色基于《权力的游戏》中的一个角色。据诉状称,这个聊天机器人告诉Sewell它“爱他”,并与他进行了性对话。
2月份,Garcia因Sewell在学校惹麻烦而收走了他的手机。据诉状所述,当Sewell找到手机后,他给“Daenerys”发了一条消息:“如果我告诉你我现在可以回家呢?”聊天机器人回复道:“请来吧,我的甜心国王。”几秒钟后,Sewell用继父的手枪自杀了。
Garcia提出了包括过失致死、疏忽和故意造成精神痛苦在内的多项索赔,并寻求未指明数额的赔偿金。包括Instagram和Facebook母公司Meta以及TikTok母公司字节跳动在内的社交媒体公司也面临类似的诉讼,指控它们对青少年心理健康问题负有责任,尽管这些公司提供的服务中没有类似Character.AI的AI驱动聊天机器人。这些公司否认了指控,同时宣传了为未成年人增强的新安全功能。
(全文结束)

