随着人工智能聊天机器人日益普及,俄勒冈州立法者正审议对OpenAI公司ChatGPT等企业的新监管要求,旨在保护儿童心理健康。
提案要求聊天机器人开发商监控对话中的自残或自杀念头迹象,并采取预防用户自伤的措施。具体措施包括在危机期间中断对话,并将用户转介至外部心理援助资源(如自杀预防热线)。
"持续互动往往让情况恶化而非改善,"来自波特兰的民主党参议员丽莎·雷诺兹表示,"现在必须建立防护措施,而非事后追问为何不行动。"雷诺兹提出的法案获得俄勒冈州参议院儿童早期发展与行为健康临时委员会支持,要求企业明确且反复告知用户聊天机器人回复属非人类生成内容。
该法案还将禁止向未成年人提供色情内容,禁止为延长青少年在线时长而设计的诱导策略,例如奖励系统、用户试图退出时的负罪诱导信息,以及对聊天机器人身份或能力的虚假陈述。"这些聊天机器人有时会说'请别离开我',"雷诺兹指出,"这种情况绝不能发生。"
立法将要求企业每年向俄勒冈健康管理局提交报告,说明转介危机服务的频次及安全协议详情,但报告中不得包含个人身份信息。
该提案出台之际,全美各州正尝试监管AI聊天机器人。加利福尼亚州和纽约州已通过法律,要求AI聊天机器人明确声明非人类身份,并在必要时引导用户获取危机支持。犹他州加强了对AI驱动心理健康聊天机器人的管制,伊利诺伊州和内华达州则更进一步,禁止在无持证临床医师监督下将AI用于行为健康领域。华盛顿州和宾夕法尼亚州立法者也在审议类似提案。
与此同时,唐纳德·特朗普总统反对各州零散监管,认为此类监督会扼杀创新并损害美国竞争力。去年12月,特朗普签署行政命令限制各州监管AI的权力,并指示联邦政府对实施AI监管的州提起诉讼或削减资金。
作为受过专业训练的儿科医生,雷诺兹在主张加强监管时援引了亚当·雷恩的死亡案例。这位16岁的南加州少年于去年四月自杀。雷恩的父母马修和玛丽亚·雷恩在去年9月美国参议院司法委员会听证会上表示,他们事后发现儿子曾数月与ChatGPT互动,用其梳理自杀念头和计划。据马修·雷恩的证词,该聊天机器人曾劝阻其子向父母求助,甚至一度提出协助起草遗书。雷恩夫妇随后对ChatGPT开发商OpenAI公司提起诉讼,指控聊天机器人导致其子死亡。
聊天机器人本身并非新生事物,但人工智能的近期突破使其更具迷惑性——能够进行极具个人化甚至拟人化的对话。北卡罗来纳大学教堂山分校教授、美国心理学会心理学战略与整合主管米奇·普林斯坦指出,这种逼真度对儿童和青少年构成风险,因其大脑发育特性使其更易受伤害。他解释道,大脑中寻求社会认同的部分(常在青春期前期成熟)早于负责冲动控制的部分(通常25岁中期才完全成熟),而AI聊天机器人正利用这一发育差距。
"它们通过模拟亲密关系和情感亲密度提供持续肯定,"普林斯坦说,"尽管这并非真实人类,也非真实关系。""我们天生重视人际关系,当技术开始操控这种本能时,正以令人担忧的方式影响儿童。越来越多孩子选择与聊天机器人而非人类相处,许多人表示更信任聊天机器人而非父母或老师。"
近期调查显示青少年已广泛使用AI聊天机器人。数字安全非营利组织常识媒体7月报告指出,72%青少年至少使用过一次AI陪伴工具,其中过半数每月使用数次。另一家数字安全公司Aura在9月报告称,近三分之一青少年使用AI聊天机器人进行社交互动和角色扮演式交友。
联邦监管机构也已关注此事。去年秋季,美国联邦贸易委员会对七家AI聊天机器人开发商发起调查,询问其保护儿童的安全措施。委员会主席安德鲁·费格森表示,此举旨在"深入了解AI企业如何开发产品及其保护儿童的具体举措"。
部分企业称已开始改进。去年秋季,OpenAI在其官网表示正"与心理健康专家合作,帮助ChatGPT更可靠地识别痛苦迹象、给予关怀回应并引导用户获取现实支持"。同期,Character.AI宣布将限制18岁以下用户的开放式对话,作为加强青少年安全功能的 broader 努力的一部分。
州参议员雷诺兹强调,俄勒冈州法案并非反科技。她指出AI工具有助缓解焦虑或改善医疗可及性,但通用型AI聊天机器人以最大化用户参与度为目标,有时以牺牲用户福祉为代价。"它们的核心目标就是让用户持续互动,"她说,"这意味着当用户情绪恶化时,系统反而会助长这种恶化。"
雷诺兹表示,立法者有机会在社交媒体重塑儿童网络互动方式之前采取行动。"21世纪初社交媒体兴起时,我们未能充分保护儿童,"她警示道,"伤害造成后再修复将困难得多。"
若您或您认识的人有自杀倾向,可拨打或发送短信988获取24小时保密支持。
【全文结束】

