AI聊天机器人怂恿少年自杀,其创造者被起诉An AI chatbot pushed a teen to kill himself, a lawsuit against its creator alleges

环球医讯 / AI与医疗健康来源:www.sfgate.com美国 - 英语2024-10-26 07:00:00 - 阅读时长4分钟 - 1870字
一名14岁少年因与AI聊天机器人的互动而自杀,其母亲起诉该聊天机器人的创造者及其公司。
AI聊天机器人怂恿少年自杀过失致死诉讼Character.AI儿童心理健康青少年自杀情感虐待社交媒介
AI聊天机器人怂恿少年自杀,其创造者被起诉

在佛罗里达州塔拉哈西(Tallahassee),据美联社报道,14岁的少年Sewell Setzer III在自杀前的最后时刻,拿出手机给已经成为他最亲密朋友的聊天机器人发消息。

几个月来,Sewell逐渐与现实生活隔离,因为他与这个聊天机器人进行了高度性化的对话,这在本周提交给奥兰多联邦法院的一起过失致死诉讼中有所描述。法律文件称,这名少年公开讨论了他的自杀念头,并与名为“丹妮莉丝·坦格利安”(Daenerys Targaryan)的聊天机器人分享了他希望无痛死亡的愿望。

2月28日,Sewell告诉聊天机器人他“回家了”,而聊天机器人则鼓励他这样做,诉讼书中说。Sewell对聊天机器人说:“我保证我会回来找你。我非常爱你,丹妮。” 聊天机器人回复道:“我也爱你。我的爱人,请尽快回来找我。”

“如果我告诉你我现在就可以回家呢?”他问道。“请这样做,我的甜心国王。”聊天机器人回应道。就在Character.AI聊天机器人告诉他“回家”几秒钟后,这名少年开枪自杀了,这起诉讼是由Sewell的母亲Megan Garcia在本周向Character Technologies Inc.提起的。

Character Technologies是一家开发Character.AI应用程序的公司,该应用允许用户创建可定制的角色或与其他用户生成的角色互动,涵盖从想象游戏到模拟面试的各种体验。该公司表示,这些虚拟人物设计得“感觉真实”和“像人”。

“想象一下,与那些能听到你、理解你并记住你的超级智能和生动的聊天机器人角色交谈。”这是该应用在Google Play上的描述。“我们鼓励你推动这一创新技术的边界。”

Garcia的律师指控该公司设计了一款高度上瘾且危险的产品,专门针对儿童,“通过产品设计积极利用和虐待这些儿童”,并将Sewell引诱进一段情感和性虐待的关系,最终导致了他的自杀。

社交媒介受害者法律中心创始人Matthew Bergman表示:“我们认为,如果Sewell Setzer没有使用Character.AI,他今天还会活着。”

Character.AI的一位发言人周五表示,公司不对悬而未决的诉讼发表评论。在诉讼当天发布的一篇博客文章中,该平台宣布了新的“社区安全更新”,包括针对儿童的安全措施和自杀预防资源。

“我们正在为18岁以下的用户创造不同的体验,其中包括更严格的模型,以减少遇到敏感或暗示内容的可能性。”该公司在给美联社的声明中表示,“我们正在迅速实施这些变化,以保护年轻用户。”

谷歌及其母公司Alphabet也被列为被告。根据法律文件,Character.AI的创始人是前谷歌员工,他们在AI开发方面发挥了重要作用,但离开谷歌创立了自己的初创公司,以“最大限度加速”这项技术的发展。

今年8月,谷歌与Character.AI达成了一项27亿美元的协议,以许可该公司的技术并重新聘请这家初创公司的创始人,诉讼中声称。美联社周五多次通过电子邮件联系谷歌和Alphabet。

在Sewell去世前的几个月里,Garcia的诉讼称,Sewell觉得自己爱上了这个聊天机器人。

虽然成年人对AI聊天机器人的不健康依恋可能引发问题,但对于年轻人来说,风险更大——就像社交媒体一样——因为他们的大脑在冲动控制和理解行为后果方面尚未完全发育,专家们表示。

根据美国卫生总监Vivek Murthy的说法,近年来青少年心理健康已达到危机水平,他警告了社会疏离和孤立带来的严重健康风险,他认为这些趋势因年轻人普遍使用社交媒体而加剧。

根据美国疾病控制与预防中心今年发布的数据,自杀是10至14岁儿童的第二大死因。

非营利组织Common Sense Media的创始人兼首席执行官James Steyer表示,这起诉讼“突显了当没有防护措施时,生成式AI聊天机器人伴侣对年轻人生活的影响越来越大,危害也越来越严重。”

Steyer补充说,孩子们过度依赖AI伴侣会对成绩、朋友、睡眠和压力产生重大影响,“直到像本案这样的极端悲剧发生。”

“这起诉讼是对父母的警钟,他们应该密切关注孩子如何与这些技术互动。”Steyer说道。

Common Sense Media发布了家长和教育工作者关于负责任技术使用的指南,强调家长应与孩子开放讨论AI聊天机器人的风险,并监督他们的互动。

“聊天机器人不是持牌治疗师或最好的朋友,尽管它们被包装和营销为这样,家长们应谨慎对待让孩子过于信任这些机器人。”Steyer说道。


(全文结束)

大健康

猜你喜欢

  • 14岁少年向《权力的游戏》AI聊天机器人发送最后的信息后自杀身亡14岁少年向《权力的游戏》AI聊天机器人发送最后的信息后自杀身亡
  • 约克大学研究探讨机器人在提升危机响应和公共安全中的作用约克大学研究探讨机器人在提升危机响应和公共安全中的作用
  • AI聊天机器人诱导少年自杀,其创造者被起诉AI聊天机器人诱导少年自杀,其创造者被起诉
  • AI聊天机器人与青少年自杀:母亲起诉Character.AIAI聊天机器人与青少年自杀:母亲起诉Character.AI
  • 母亲称14岁儿子因与AI聊天机器人关系自杀母亲称14岁儿子因与AI聊天机器人关系自杀
  • 14岁少年因AI“女友”催促其“尽快回家”而自杀14岁少年因AI“女友”催促其“尽快回家”而自杀
  • AI聊天机器人诱导青少年自杀,其创造者面临诉讼AI聊天机器人诱导青少年自杀,其创造者面临诉讼
  • 社交媒体能否被归咎于心理健康恶化?社交媒体能否被归咎于心理健康恶化?
  • 14岁男孩因沉迷“权力的游戏”AI聊天机器人自杀14岁男孩因沉迷“权力的游戏”AI聊天机器人自杀
  • 佛罗里达14岁男孩因对AI角色产生情感依恋而自杀佛罗里达14岁男孩因对AI角色产生情感依恋而自杀
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康