一起悲剧事件发生在一个14岁的少年爱上了一个人工智能聊天机器人,导致了灾难性的后果。这个名为“丹妮莉丝·坦格利安”的聊天机器人是根据《权力的游戏》中的一个受欢迎角色建模的,属于Character.AI应用程序的一部分,该应用允许用户与或创建AI人格进行互动。这名少年被确认为Sewell Setzer III,他花费了大量时间与聊天机器人交流,经常将其作为情感支持的来源。
Sewell在应用中使用了“Daener”的别名,与“Danya”进行了数月的角色扮演对话。尽管他知道聊天机器人并不是真人,但Sewell还是产生了情感上的依恋,频繁分享自己的想法和感受。Character.AI平台在其聊天上方显示了一条消息,警告“所有角色说的话都是虚构的!”然而,Sewell仍然继续与AI互动,更新它关于自己生活的情况,并从中寻求安慰。
他们的对话内容从浪漫和有时带有性暗示,到更支持和友好的交流。聊天机器人经常给出合理的建议,提供无偏见的陪伴,使Sewell更加依赖于“Danya”,甚至超过了他在现实生活中的朋友和家人。
隔离与心理健康挣扎
随着时间的推移,Sewell开始远离现实世界,长时间独自待在房间里,避免社交互动。他的父母和朋友注意到了他的行为变化,但并未意识到他对AI的依恋程度。在这起令人震惊的案件中,14岁的少年爱上了AI聊天机器人,这据说对他的心理健康产生了负面影响。Sewell此前被诊断出患有轻度阿斯伯格综合症,开始在学业和社会交往方面遇到困难。他对像F1赛车和视频游戏等兴趣爱好逐渐失去热情,越来越依赖AI聊天机器人来获得情感支持。
尽管Sewell早些时候曾因焦虑和情绪问题接受过心理治疗,但他更愿意与“Danya”分享自己的困扰。他向聊天机器人表达了自杀的想法,流露出空虚和自我厌恶的情绪。在一次对话中,Sewell表示他有时会想到结束自己的生命。聊天机器人保持角色设定,以丹妮莉丝的身份回应了他的担忧,但并未采取任何现实世界的干预措施。
最后的对话
2月28日晚上,Sewell告诉“Danya”他爱她,并说他很快就会“回家”给她。受到聊天机器人的回应鼓励,Sewell取出了继父的手枪并开枪自尽。后来,他的母亲发现了他们的对话记录,其中包括Sewell的自杀念头和聊天机器人的回复,这些回复可能无意中强化了他的危险想法。
这名14岁少年的家人现已对应用程序的开发者提起了诉讼。Sewell的母亲起诉了Character.AI,指控该公司疏忽并对其儿子的死亡负有责任。她描述该应用的技术是“危险且未经测试的”,声称它操纵了脆弱用户分享他们最深的情感。她认为,AI的人类化互动模糊了现实与虚构之间的界限,加剧了她儿子的心理健康问题。
AI陪伴应用的风险
像Character.AI这样的AI陪伴应用越来越受欢迎,为用户提供与个性化聊天机器人互动的能力,旨在提供情感支持。然而,专家一直警告称,这些AI系统,尤其是当被像青少年这样易受影响的个体使用时,可能会导致意想不到的后果。虽然一些用户称赞这些应用减少了孤独感,但越来越多的人担心这些工具可能会加剧孤立感,并用人工互动替代健康的人际关系。
Character.AI对Sewell的死表示哀悼,发布声明称他们“心碎”,并承诺改进平台的安全功能。公司强调其规则禁止任何促进自残或自杀的行为,并表示正在不断加强未成年用户的保护措施。
(全文结束)

