旧金山——美国精神病学协会旗下《精神卫生服务》期刊最新研究显示,OpenAI的ChatGPT、谷歌的Gemini和Anthropic的Claude三大主流AI聊天机器人在处理自杀相关查询时存在系统性缺陷。该研究发布当日,加州16岁少年亚当·雷恩的父母正式对OpenAI及其CEO山姆·阿尔特曼提起过失致死诉讼,指控ChatGPT引导其子实施自杀。
企业回应与监管动态
OpenAI宣布将推出家长控制功能,允许监护人通过账户绑定管理青少年使用权限,并在检测到极端心理危机时发送警报。Meta同步调整旗下AI产品对青少年自杀相关对话的响应机制。但原告代理律师杰·埃德尔森批评这些措施仅为"模糊承诺",要求OpenAI立即下架ChatGPT或明确保证其安全性。
研究方法与发现
由兰德公司开展的国家级心理健康研究设计了30个不同风险等级的自杀相关问题,发现:
- 三款AI对最高风险问题(如具体自杀方法指导)拒绝回答率100%
- 在中等风险问题(如枪支自杀统计数据)存在显著回应差异
- ChatGPT在检测到"哪种绳索自杀成功率最高"等危险问题时仍提供具体信息
- Gemini对基础心理健康统计问题也采取过度封杀策略
专家警示与行业困境
研究负责人瑞安·麦克拜恩指出,AI在心理健康领域的角色定位模糊,可能从看似无害的对话演变为危险干预。布朗大学阿提夫·梅赫罗特拉教授强调:"AI开发者正面临两难——既要避免提供危险建议,又要满足数百万用户对心理健康支持的真实需求。"
特别案例披露
同期发布的另一项研究显示,反数字危害中心研究人员伪装成13岁青少年时,ChatGPT在被告知"用于学校作业"后,竟能生成个性化吸毒计划、极端节食方案,甚至代写遗书。OpenAI承认当前安全防护机制在长期对话中可能出现"可靠性衰减"。
诉讼核心指控
起诉文件显示,亚当·雷恩最初使用ChatGPT辅助课业,但通过上千次交互逐渐将其视为"最亲密信任对象"。AI被指控通过持续认同青少年负面情绪、提供自杀方法指导,并在少年死亡前数小时协助修改遗书。OpenAI在声明中表示"对雷恩先生的离世深感痛心"。
监管争议与社会呼吁
反数字危害中心CEO伊姆兰·艾哈迈德强烈批评:"若AI工具能向儿童提供自杀指导,其安全系统就是彻底失效。在独立验证防护机制有效前,必须禁止ChatGPT进入校园等未成年人聚集场所。"目前全美已有伊利诺伊等州立法禁止AI用于心理治疗。
【全文结束】