人工智能(AI)已成为医疗健康和生命科学领域不可或缺的技术。智能医疗设备有望掀起医疗技术革命。欧盟近期通过人工智能立法和产品责任立法项目,应对AI在各经济领域的快速渗透。横向监管规定与特定部门医疗器械法律的相互作用,引发了复杂的法律问题。
背景
欧盟对AI医疗技术的监管正在经历重大转型。欧盟委员会最初设想的立法体系以严格审查、程序复杂和责任扩大为特征,技术创新则被置于次要地位。随着《人工智能责任指令》(AILD)的撤回,监管密度有所降低。但同期通过的《人工智能法案》(AI Act)和修订版《产品责任指令》(PLD)共同构建了智能医疗设备制造商的严密责任框架。
智能医疗设备
现行欧盟法律尚未对"智能医疗设备"作出明确定义。通过《医疗器械条例》(MDR)与AI Act的联合解读可形成工作定义:指任何以软件形式(独立或嵌入硬件中)实现特定医疗目的并至少包含一个AI组件的设备。AI组件定义为具有自主性、适应性和推理能力的基于机器的系统,最终分类需经技术评估和个案判断。
法律框架
AI Act大部分条款将于2026年8月2日生效。智能医疗设备需同时遵守MDR和AI Act的交叉监管要求。多数设备被归类为AI Act下的"高风险"类别,需满足技术文档、风险管理、人工监督、透明度等开发阶段义务。这些义务原则上独立于MDR要求,但部分内容与MDR存在目标重叠。例如符合性评估通常由MDR指定机构执行,涵盖两项法规要求;而MDR I类设备如无需指定机构评估,则仅需接受AI Act下的符合性评估。
责任扩展与PLD修订
AI Act和MDR均未规定特定责任条款,智能医疗设备适用修订后的PLD及各国侵权/合同法。修订后的PLD显著强化了制造商责任:明确将软件纳入产品定义,扩大责任主体至进口商、分销商、授权代表及非制造商控制下的产品重大修改者。缺陷认定采用双重标准——未达合理预期安全性或未满足欧盟/国家法律的安全要求,前者与MDR、AI Act的合规要求形成关键衔接。
损害赔偿扩展
PLD修订扩大了可赔偿损害范围,包含经证实的心理伤害和数据丢失。责任门槛被取消,损害索赔时效延长至25年。软件制造商的免责空间收窄,若损害可通过软件更新预防则无法免责。程序规则方面引入证据推定制度:当索赔方能证明主张合理性时,被告需披露"相关证据",否则推定产品存在缺陷。针对AI模型的固有不透明性,法院可推定缺陷性与损害间的因果关系,具体实施效果取决于各国法律转化和司法实践。
美国监管动态
欧盟构建统一监管框架的同时,美国食品药品监督管理局(FDA)通过迭代性指南推进监管:已批准850余款AI/ML医疗设备,主要集中在放射学领域。FDA延续"作为医疗器械的软件"(SaMD)现有框架,补充AI/ML医疗器械行动计划及算法变更协议。尽管美国尚未建立AI专属责任体系,但传统侵权法原则与质量体系法规持续施压算法安全可靠。数字健康卓越中心通过利益相关者参与和监管科学推动政策发展,强调风险分级监管和跨学科协调。
全球监管展望
AI Act、MDR与PLD构成的监管三角强化了智能医疗设备制造商责任。PLD将MDR和AI Act的监管要求转化为产品责任领域标准,有利于索赔方的程序规则可能带来商业挑战。尽管欧盟标准可能提升产品信任度,但短期内合规成本上升可能抑制中小企业创新。与此同时,美国的渐进式监管通过现实世界监控和质量体系强化实现灵活治理。全球竞争背景下,规则导向型与政策驱动型监管哲学的差异,将塑造跨国企业的战略选择。在AI驱动的医疗生态系统中,监管可信度、透明度和跨境合规能力将成为获取市场准入和患者信任的战略资产。
【全文结束】

