人工智能与心理健康治疗
美国伊利诺伊州于2025年8月1日通过的《心理健康资源健康与监督法案》(Wellness and Oversight for Psychological Resources Act),被业界视为人工智能监管领域的"核爆级"事件。这项立法将对生成式人工智能企业和心理健康从业者产生深远影响,其法律效应正以"海啸"之势席卷全美。
法案核心内容包含三项突破性规定:
- AI企业责任:任何允许其人工智能系统提供心理健康建议的技术公司,若未取得专业医疗资质,将面临单次违规最高1万美元的民事处罚。即便AI系统未主动宣传治疗功能,只要实际发生此类服务即构成违法。
- 从业者规范:持证心理治疗师不得让AI独立作出治疗决策或直接与患者进行治疗性沟通,AI生成的治疗方案必须经专业人士审核,且禁止AI系统自主识别用户情绪状态。
- 法律溯及范围:不仅规范专业领域,更将"普通生成式AI"纳入监管——若某AI系统在伊利诺伊州被用于心理治疗,即使开发者未意图此用途,仍将承担法律责任。
技术企业的两难处境
当前全球主流生成式AI平台均面临"存在即违法"的困境。以ChatGPT、Bard等系统为例,其语言模型在交互中自然产生的心理疏导内容,可能使企业陷入法律风险。尽管多数平台通过用户协议声明"不提供医疗建议",但法案明确此类声明无效——用户点击同意的通用条款不能作为免责依据。
法案特别指出,通过互联网提供AI心理咨询服务的企业,若未取得医疗资质,其违法成本可能随服务人次呈指数级增长。对于日活用户达百万级的平台,潜在罚金可达数十亿美元。
心理治疗行业的范式变革
针对从业者,法案划出明确红线:
- 禁止AI独立进行心理评估
- 禁止AI直接参与治疗对话
- 要求所有AI生成建议必须经执业医师审核
- 禁用AI情绪识别功能
这导致多数心理诊所仅能在行政事务(如排班、账单处理)中使用AI。有从业者指出,法案可能迫使医疗机构放弃AI辅助诊疗的创新探索,回到纯人工服务模式。但支持者认为这有效防止了AI误诊风险,如某AI心理咨询机器人曾建议抑郁症患者"多晒太阳"而延误治疗的案例。
监管创新与争议焦点
法案最富争议的条款是将"通用人工智能"纳入监管。法律专家指出,该法可能影响所有具备对话能力的AI系统,包括运行在智能手机上的本地化模型。但技术团队正在探索规避方案——通过将AI模型小型化(Small Language Model)至无法联网,可规避"互联网人工智能"的法律定义。
对于法案的震慑效应,行业呈现两极分化:中小AI医疗初创企业认为获得合规发展机会,因其专业级AI医疗产品受FDA监管,反而符合法案要求;而科技巨头担忧巨额罚金,某头部企业已开始将美国用户AI心理咨询服务迁移至加拿大服务器。
全球监管的模板效应
该法案已引发跨国监管机构高度关注。欧盟AI法案修订草案新增心理健康AI条款,中国《生成式人工智能服务管理暂行办法》拟纳入医疗场景特别规定。美国国会正研究将其升级为联邦法律,目前已形成两党共识——参议员Amy Klobuchar指出:"AI心理健康立法不应是选择题,而是必答题。"
法案起草人Tim Bower州议员强调:"我们不是在阻挡技术进步,而是在建立安全护栏。就像自动驾驶必须遵守交规,AI医疗同样需要交通灯。"随着法案实施,全球AI医疗产业正迎来监管分水岭,创新与合规的平衡将成为行业新命题。
【全文结束】

