2026年2月2日,英国人工智能生命科学工作组(UKAI Life Sciences Working Group)向英国药品和医疗产品监管局(MHRA)国家医疗保健人工智能监管委员会提交了证据征集回应。该提交内容基于几天前与Curia共同主持的圆桌会议,汇集了来自英国国家医疗服务体系(NHS)、监管机构、行业、技术提供商以及专业和政策界的各方声音。
核心观点很简单:医疗保健领域的人工智能(AI)已经受到监管。医疗器械监管、药物警戒、临床治理和专业责任框架均已生效并积极实施。真正的问题是,这些机制如何应对随时间演变、在不同环境中表现不同、并模糊传统责任界限的软件驱动系统。
当软件行为不同于硬件
大部分监管体系建立在相对静态的产品基础上。而人工智能系统则不同,它们可能定期更新、从新数据中学习,或以批准时未完全预见的方式部署。
圆桌会议参与者,包括MHRA的Mani Hussain博士,探讨了现有框架如何实际应用于基于软件和人工智能的医疗设备。特别关注了部署后行为、版本控制以及系统投入使用后如何评估变化。
英国人工智能组织(UKAI)欢迎成员讨论向国家医疗保健人工智能监管委员会提交的内容。这些并非抽象问题。在真实的临床环境中,不同医疗机构、人群或工作流程之间的性能差异可能对安全性、信任度和采用率产生实质性影响。
风险比例比新颖性更重要
一个一致的主题是基于风险的比例原则的重要性。并非所有人工智能都同等重要,也并非所有应用都具有相同的含义。
支持行政任务或低风险运营决策的系统,与影响诊断、治疗或临床决策的系统相比,引发的监管问题截然不同。将它们视为同等风险,会在风险最低的地方阻碍创新,同时未能将注意力集中在最重要的地方。
与会者强调,比例原则在现有监管框架中已经存在,但在人工智能背景下并不总是一致或清晰地应用。
监督不会在部署后结束
另一个关注领域是人工智能系统上线后的发生情况。监测性能随时间变化、管理更新以及识别新出现的问题都至关重要,但往往处理不均。
现有的警戒概念提供了起点。报告机制、事件审查流程和治理结构对医疗机构已经很熟悉。挑战在于将它们适应于可能逐步变化而非戏剧性失败的系统。
如果没有可信的部署后监督,无论上市前评估多么严格,对人工智能使用的信心将依然脆弱。
责任明确建立信心
贯穿人工智能生命周期的责任是一个反复出现的问题。制造商、医疗机构和临床医生都有明确的角色,但当系统具有适应性或深度融入工作流程时,这些角色可能变得模糊。
与功能和使用环境相关联的明确责任分配,不仅对问责制至关重要,也对建立信心至关重要。临床医生需要知道他们负责什么。医疗机构需要明确治理义务。开发人员需要可预测的期望。
模糊性对任何人都没有好处。
监管作为持续的对话
向MHRA提交的回应及伴随的圆桌会议,是对人工智能目前在医疗保健中如何监管和使用的实际评估,以及在哪些方面可能需要更大的清晰度或一致性。
对英国人工智能生命科学工作组而言,这项工作是一个连续点而非结论。它围绕共同目标——使人工智能治理在医疗保健交付的现实环境中切实可行——与Curia、MHRA和行业保持持续合作。
英国国家医疗服务体系(NHS)中人工智能的未来,将不由是否存在监管决定,而是由监管是否以反映医疗保健实际运作方式以及技术实际使用方式来实施所决定。
【全文结束】

