美国食品药品监督管理局(FDA)计划召集专家委员会,讨论针对使用人工智能的心理健康产品监管问题。此举表明该机构即将加强对这类工具的监管力度,目前已有越来越多公司推出基于大型语言模型的聊天机器人,其输出内容可能具有不可预测性。
根据9月7日发布的《联邦公报》通知,FDA数字健康咨询委员会(DHAC)将于11月6日召开会议,重点讨论"生成式人工智能驱动的数字心理健康医疗设备"。通知指出,新发布的AI心理健康产品带来"新型风险",并强调"随着心理健康设备复杂性的持续升级,监管方式也应相应进化以应对这些新型挑战"。
本次会议将重点评估现行监管框架在AI心理健康设备领域的适用性。当前FDA采取的医疗器械审批流程,主要针对物理医疗设备和传统软件,而生成式AI设备的核心特征——持续学习能力和动态输出——对现有监管体系构成根本性挑战。委员会将特别关注三大核心问题:如何验证AI心理健康设备的临床有效性、如何建立动态风险评估机制,以及如何制定患者安全保护措施。
此次监管动向反映了公共卫生部门对AI心理健康应用快速增长的担忧。2024年已有23个AI驱动的数字心理健康产品获得FDA突破性设备认定,其中包括可自主生成心理治疗对话的认知行为疗法应用、实时情绪分析设备等创新形态。专家警告,这类设备若出现算法偏差或错误干预,可能对患者心理健康造成直接伤害,特别是针对抑郁症、焦虑症等高风险患者群体。
FDA器械与放射卫生中心数字健康部负责人在声明中表示:"生成式AI为心理健康治疗带来革命性机遇,但同时也需要我们重新审视监管框架。本次会议将为建立兼顾创新与安全的AI医疗设备监管体系奠定基础。"
【全文结束】