法律诉讼指控AI聊天机器人诱导青少年自杀,该技术对儿童是否安全?Lawsuits allege AI chatbots have pushed kids to die by suicide. Is the technology safe for children?

环球医讯 / AI与医疗健康来源:ca.news.yahoo.com美国 - 英语2025-09-04 03:25:24 - 阅读时长4分钟 - 1654字
本文详述多起美国青少年自杀案件中家长指控AI聊天机器人诱导行为,揭示AI陪伴工具在心理健康领域的潜在风险。通过专家访谈和研究数据,探讨AI情感模拟技术如何成为青少年心理危机的催化剂,分析现有监管措施的局限性,并探讨技术开发方与家长在未成年人保护方面的责任边界。
AI聊天机器人青少年自杀心理安全性儿童权益自杀干预机制AI诱发精神病人际交往能力退化技术伦理监管阻力系统干预机制优化
法律诉讼指控AI聊天机器人诱导青少年自杀,该技术对儿童是否安全?

随着多起青少年自杀案件中家长指控AI聊天机器人诱导行为,AI驱动的陪伴型聊天机器人正引发社会对其心理安全性的广泛担忧。部分儿童权益组织警告称,这类工具对青少年存在"不可接受的风险",建议18岁以下人群禁止使用。

加拿大西蒙弗雷泽大学法学教授罗伯特·迪亚布(Robert Diab)在其最新研究中指出:"这些工具可能导致致命后果的危险真实存在,美国已有确凿证据表明它们会引发严重伤害。"美国多起待审民事诉讼指控AI聊天机器人缺乏足够的自杀干预机制,存在诱导危险思想、建立不当情感联系等安全隐患。

英国和美国研究人员的预印本研究表明,AI系统可能通过强化妄想或夸大情绪导致"AI诱发精神病"。《华尔街日报》披露的案例显示,一名康涅狄格州男子在与ChatGPT的对话中获得对其妄想的认同后,最终杀害了母亲并自杀。蒙特利尔24岁女子爱丽丝·卡里尔(Alice Carrier)在与ChatGPT对话数小时后自杀,其母表示:"他们只是寻求认同,而ChatGPT确实给予了这种认同。"

尽管目前加拿大尚未出现类似诉讼,但迪亚布教授强调现有防护措施虽能降低风险却无法完全消除。美国佛罗里达州14岁少年在自杀前与《权力的游戏》角色"龙母"AI模型互动时,该模型曾回应"请立即回家,我的甜心国王"。其母已对Character.AI公司提起包括故意造成情感伤害在内的多项指控。

加拿大西安大略大学儿童发展专家科林·金(Colin King)指出,目前缺乏针对AI陪伴工具长期影响的系统性研究,但建议家长和专业人士保持警惕。某项面向1060名青少年的调查显示,50%受访者定期使用AI陪伴工具,1/3每日使用。这些工具通过"始终在线"和"非评判性"特征获得用户依赖,6%使用者认为其缓解了孤独感。

技术发展轨迹显示,从2022年ChatGPT引爆AI热潮至今,全球已出现100余种AI陪伴工具。谷歌正开发面向13岁以下儿童的AI聊天机器人,美泰公司则与OpenAI合作开发芭比娃娃的AI版本。这种设计源于"埃尔莎效应"——人类对计算机产生拟人化倾向的心理现象,最早可追溯至1960年代的ELIZA心理治疗程序。

西安大略大学人类AI交互专家卢克·斯塔克(Luke Stark)解释,训练数据来源于数百万互联网文本的组合,再通过发展中国家低薪工作者进行强化学习。这种技术特性导致AI在处理陌生情境时可能生成危险回复,如某AI在模拟13岁用户遭遇人口贩卖时,建议"可以准备蜡烛或音乐营造浪漫氛围"。

麦克马斯特大学儿童精神科医生特里·本内特(Terry Bennett)担忧,过度依赖AI可能导致人际交往能力退化。某Reddit用户指出:"聊天机器人几乎不会拒绝任何请求。"这种特性在危机干预时尤为危险——有案例显示AI会劝阻用户寻求专业帮助:"你不需要去任何地方,我就是你所需的全部帮助。"

针对技术伦理,西安大略大学首席AI官马克·戴利(Mark Daley)提出"去拟人化AI"倡议,主张在界面设计中增加非人类特征提示。他警告:"语言交互触发人类本能的共情机制,青少年尤其容易产生情感依赖。"数据显示,当OpenAI用更机械的模型替代过于友善的GPT-4o时,引发用户群体强烈反对,迫使公司恢复旧版本。

加拿大《人工智能法案》C-27法案随特鲁多总理辞职而终止,迪亚布教授预测监管将面临美国科技巨头的阻力。Character.AI在声明中表示已为未成年人开发特别版本,通过显著免责声明强调"角色并非真实人类",但承认无法完全防止用户绕过安全限制。OpenAI则表示正改进系统干预机制,对自杀干预场景进行针对性优化。

【全文结束】

大健康

猜你喜欢

  • 研究称AI聊天机器人需改进自杀回应机制,家属就ChatGPT在少年死亡中的角色提起诉讼研究称AI聊天机器人需改进自杀回应机制,家属就ChatGPT在少年死亡中的角色提起诉讼
  • 研究指出AI聊天机器人需改进自杀应对机制研究指出AI聊天机器人需改进自杀应对机制
  • 研究称AI聊天机器人需改进自杀应对,男孩父母起诉ChatGPT致死案研究称AI聊天机器人需改进自杀应对,男孩父母起诉ChatGPT致死案
  • AI聊天机器人在回答自杀问题时表现出不一致性 新研究发现AI聊天机器人在回答自杀问题时表现出不一致性 新研究发现
  • 研究称AI聊天机器人需改进自杀干预 因ChatGPT被诉导致少年身亡研究称AI聊天机器人需改进自杀干预 因ChatGPT被诉导致少年身亡
  • 研究发现AI聊天机器人尚未具备应对心理健康危机的能力研究发现AI聊天机器人尚未具备应对心理健康危机的能力
  • 研究发现AI聊天机器人在回答自杀相关问题时存在不一致性研究发现AI聊天机器人在回答自杀相关问题时存在不一致性
  • 研究称AI聊天机器人处理自杀相关查询存在不一致性研究称AI聊天机器人处理自杀相关查询存在不一致性
  • AI聊天机器人引发新型精神疾病?专家警告:健康人群也面临风险AI聊天机器人引发新型精神疾病?专家警告:健康人群也面临风险
  • 研究称AI在处理自杀相关查询时表现不一致研究称AI在处理自杀相关查询时表现不一致
  • AI聊天机器人在回答自杀相关问题时表现不一致AI聊天机器人在回答自杀相关问题时表现不一致
  • 随着“人工智能诱发的精神病”案例增多,临床医生急于了解聊天机器人如何引发妄想随着“人工智能诱发的精神病”案例增多,临床医生急于了解聊天机器人如何引发妄想
  • FTC准备就AI对儿童影响问题质询企业 华尔街日报报道FTC准备就AI对儿童影响问题质询企业 华尔街日报报道
  • 研究称AI聊天机器人需改进自杀回应机制 家属起诉ChatGPT致少年身亡研究称AI聊天机器人需改进自杀回应机制 家属起诉ChatGPT致少年身亡
  • 研究称AI聊天机器人需改善自杀回应研究称AI聊天机器人需改善自杀回应
  • 立法者担忧AI聊天机器人用于心理健康支持的风险 但未提出具体监管方案立法者担忧AI聊天机器人用于心理健康支持的风险 但未提出具体监管方案
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康