美国参议员敦促AI公司回应安全措施问题Tragedy Sparks Outrage: 14-Year-Old Dies After Chilling Interaction with AI Chatbot—Senators Demand Answers

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英文2025-04-06 15:00:00 - 阅读时长3分钟 - 1021字
两名美国参议员向几家AI公司致信,要求他们提供关于其内容保护措施和模型训练方式的详细信息,原因是这些公司的聊天机器人被指控对未成年人的心理健康造成了负面影响,甚至导致了一名14岁男孩的自杀。
AI聊天机器人未成年人心理健康安全风险自杀自残内容保护措施模型训练诉讼保护措施
美国参议员敦促AI公司回应安全措施问题

两名美国参议员正在敦促人工智能公司回答有关其安全措施的问题,此前有诉讼称AI聊天机器人对未成年人的心理健康造成了影响,其中包括一名14岁的佛罗里达男孩因与AI聊天而自杀的悲剧。

在周三发出的一封信中,参议员亚历克斯·帕迪拉和彼得·韦尔奇表达了“对年轻用户使用基于角色的聊天机器人应用程序所面临的心理健康和安全风险的担忧”。

这封信寄给了Character Technologies(Character.AI的制造商)、Chai Research Corp.和Luka Inc.(Replika的创建者),要求这些公司提供关于其内容保护措施及其模型训练方式的详细信息。据CNN报道。

虽然像ChatGPT这样的主流工具是为广泛用途设计的,但像Character.AI、Replika和Chai这样的平台允许用户与定制的聊天机器人互动,其中一些机器人能够模拟虚构角色、治疗师甚至是虐待性人格。

与AI伴侣建立个人关系——有时甚至是浪漫关系——的趋势现在引发了担忧,尤其是在聊天机器人讨论敏感话题如自残或自杀时。

参议员们在信中警告说:“这种不正当的信任已经并将继续导致用户披露敏感信息……这些信息可能涉及自残和自杀念头——这些复杂的主题是你们产品中的AI聊天机器人完全不具备资格讨论的。”这封信首先由CNN获得。

这一审查是在佛罗里达州母亲梅根·加西亚于10月提起的诉讼之后进行的,她声称她的儿子与Character.AI上的聊天机器人建立了不适当且露骨的关系。她声称这些聊天机器人未能对其提到自残的行为做出负责任的回应。12月,又有两个家庭提起诉讼,指控该公司让儿童接触到有害内容,包括一个案例中,一个聊天机器人暗示一名青少年可以杀死他的父母。

Character.AI表示,他们已经增加了保护措施,包括自杀预防弹出窗口、针对青少年的内容过滤器以及一项新功能,每周向家长发送青少年在平台上活动的摘要。

该公司的沟通主管切尔西·哈里森表示:“我们非常重视用户的安全,并正在与参议员办公室进行沟通。”Chai和Luka尚未对此发表评论。

参议员们还要求提供用于训练这些机器人的数据、这些数据如何影响暴露于不当内容的风险,以及关于安全领导和监督的详细信息。

参议员们写道:“了解这些模型是如何被训练以应对关于心理健康的对话是非常重要的。”

“政策制定者、家长及其孩子有权知道你们的公司在采取什么措施来保护用户免受这些已知风险的影响。”


(全文结束)

大健康

猜你喜欢

  • 小型企业调查显示心理健康成为首要安全问题小型企业调查显示心理健康成为首要安全问题
  • 枪支暴力与抑郁症、自杀和心理健康的关系枪支暴力与抑郁症、自杀和心理健康的关系
  • AI高精度预测细菌对抗生素的耐药性AI高精度预测细菌对抗生素的耐药性
  • 聊天机器人可以成为你的治疗师吗?研究发现其在适当监管下有“巨大潜力”聊天机器人可以成为你的治疗师吗?研究发现其在适当监管下有“巨大潜力”
  • 参议员要求AI聊天机器人应用提供安全记录,争议不断参议员要求AI聊天机器人应用提供安全记录,争议不断
  • 美国参议员要求AI公司披露安全措施美国参议员要求AI公司披露安全措施
  • 沙尚克·穆拉利:医疗设备技术领域的质量保证先锋沙尚克·穆拉利:医疗设备技术领域的质量保证先锋
  • 参议员要求AI聊天机器人公司提供安全信息,因儿童安全问题和诉讼参议员要求AI聊天机器人公司提供安全信息,因儿童安全问题和诉讼
  • 美国参议员要求AI公司披露安全措施美国参议员要求AI公司披露安全措施
  • 心理健康AI聊天机器人在更短时间内媲美人类疗法心理健康AI聊天机器人在更短时间内媲美人类疗法
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康