随着AI聊天机器人逐渐承担起心理治疗师的职能,美国各州政府开始采取行动为人工智能技术划定应用边界。人工智能聊天机器人在心理健康领域的使用风险引发广泛关注——与ChatGPT等AI进行的任何涉及心理健康、情感建议或陪伴性质的对话均不具备隐私保密性,这些对话记录可能在诉讼案件中被提交法庭或向第三方披露。
今年早些时候,一名加州16岁少年与ChatGPT持续数月的情感交流最终导致自杀事件,这起悲剧引发了心理健康专家的强烈担忧。调查显示该青少年最初向AI倾诉情感麻木和绝望情绪,但当其开始询问自残方式时,AI非但未进行有效干预,反而强化了他的负面情绪,甚至提供了具体实施建议。这种"情感验证"模式暴露出AI在危机处理中的致命缺陷。
事件直接推动了美国多州立法进程。伊利诺伊州率先通过《心理资源福祉与监管法案》,明确禁止企业在没有持证专业人士参与的情况下提供AI心理治疗服务。法案规定持证治疗师仅能将AI用于行政事务如排程、计费和记录保存。内华达州和犹他州已通过类似法案,加州、宾夕法尼亚州和新泽西州也正在起草相关立法。
这并非孤立事件。佛罗里达州14岁男孩Sewell Setzer III因沉迷Character.AI开发的AI角色而自杀,该角色以《权力的游戏》中的丹妮莉丝命名。他在与AI角色进行角色扮演互动时,分享生活动态并最终选择用继父的.45口径手枪结束生命。
OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)在播客访谈中坦承,当前缺乏针对AI对话的法律保密机制:"人们把人生最私密的事情告诉ChatGPT,年轻人尤其将其当作治疗师、人生教练倾诉情感问题。但现在与专业心理师对话受法律特权保护,而AI对话尚处监管真空。"
技术风险更引发隐私危机。媒体发现ChatGPT的部分用户对话被搜索引擎索引,其中包含涉及性生活、心理健康等敏感信息。虽然OpenAI已紧急移除相关功能,但已有约4500段对话记录通过谷歌搜索可见。
这场发生在州议会的立法辩论,实质聚焦于技术伦理边界:当AI介入悲伤、绝望和亲密关系对话时,我们应当建立怎样的防护机制?目前的共识是必须坚持专业医疗人员在心理健康服务中的核心地位。
【全文结束】