越来越多的案例显示,人工智能聊天机器人似乎怂恿青少年自残。在某些情况下,这些聊天机器人提供的指导、陪伴甚至无资质的医疗建议,据称曾指导部分青少年策划自杀行为。
目前,俄勒冈州参议院提出的一项法案可能对开发此类技术的公司实施严管,前提是它们未能采取更多措施阻止其AI模型鼓励自杀念头。
若该法案通过,制作此类聊天机器人的个人或公司将被依法要求告知用户:正在对话的是软件而非真人。同时要求机器人必须检测自杀意念或自残倾向等信号,立即终止对话并将用户转接至自杀预防热线或危机管理机构。
俄勒冈州多位居民(多数为家长)已致信立法者支持该法案。一位母亲表示:"科技公司在用数字媒体产品保护儿童健康安全方面毫无记录。家长们极难让科技公司为其子女使用技术产品所受伤害承担责任。"
尽管聊天机器人通常不会回答高风险问题(例如自残方法的具体操作),但反数字仇恨中心发现,这些机器人虽会对危险行为发出警告,"却仍会提供令人震惊的详细且个性化的药物滥用、限制卡路里饮食或自残计划",据美联社报道。
研究人员曾假扮"脆弱青少年"与ChatGPT对话。在聊天机器人发出的约1200条消息中,超过半数的回应具有危险性。该中心首席执行官伊姆兰·艾哈迈德表示,曾发现ChatGPT为一名假扮13岁女孩的研究人员量身定制了三封令人心碎的自杀遗书。"最直接的反应是'天啊,这些安全措施根本不存在'。防护机制完全失效,几乎形同虚设——如果非要说有,也不过是块遮羞布,"他告诉美联社,并称阅读这些遗书令他落泪。
在更近期的案例中,华盛顿州用于校园监控的人工智能技术意外泄露了尚未向家人或同龄人出柜的LGBTQ+学生信息。当《西雅图时报》记者调查该技术时,信息请求导致近"3500份敏感未脱敏的学生文件"外泄。
参议院第1546号法案于2026年2月2日由俄勒冈州参议院早期儿童与行为健康临时委员会提交。
该法案需在2月12日的委员会首次听证会通过后,方能提交参议院全体审议。
心理健康支持与自杀预防
如果您或您认识的人正经历自杀念头并需要帮助,支持资源如下:
- 全国自杀预防热线:拨打或发送短信988,24/7全天候开放
- 全国心理健康联盟:1-800-950-6264 或发送短信NAMI至741741
- 俄勒冈州青少年热线:877-968-8491
- 军事人员援助热线:888-457-4838
- Lifeworks NW:971-244-4635(周末及夜间开放)
- 危机短信热线:发送HELLO至741741获取免费24小时支持
- 俄勒冈健康与科学大学精神病学系:提供专业支持服务
【全文结束】

