欧洲药品管理局与美国食品药品监督管理局发布药物开发者AI指导原则
2026年1月14日,欧洲药品管理局(EMA)和美国食品药品监督管理局(FDA)发布了一套共10项的AI使用指导原则,适用于药物产品全生命周期。给申办方的信息很明确:使用AI,但要以基于风险的全生命周期思维方式进行,并符合现代标准。
这些机构指出,AI有潜力加速药物开发、改善药物警戒,并通过更准确地预测人体毒性与疗效来减少动物实验。正如官方声明所述,这些原则旨在"为药物产品全生命周期各阶段使用AI生成证据提供信息、增强并促进其应用"。
对产品开发团队的重要性
- 为研发、临床开发、化学制造与控制(CMC)以及上市后监测中的AI应用设定明确期望。
- 提升治理水平:文件记录、验证和监督需与使用风险和背景相匹配。
- 信号跨司法管辖区的一致性,减少全球项目的不确定性。
- 支持实际成果:提高决策质量、减少延误、降低对动物模型的依赖。
10项原则的实践转化
- 以人为本与伦理设计:明确人类受益点,设定公平性保障措施,并记录模型服务对象及可能影响的人群。
- 清晰的使用背景:准确说明AI的使用场景(如终点选择、试验点可行性、剂量确定、信号检测)及其所支持的决策。
- 基于风险的方法:根据对患者、试验或质量的潜在影响,调整验证深度、风险控制和人工监督。
- 数据治理与文档管理:跟踪数据来源、同意书、质量检查和访问权限;及时更新模型卡片和数据表。
- 标准与合规:与现行法律、科学和监管标准保持一致;随着共识技术标准的成熟予以采纳。
- 多学科开发:全程纳入临床、生物统计学、数据科学、质量、药物警戒和软件工程等多领域专家。
- 稳健的模型与系统工程:采用成熟的机器学习/软件工程实践:版本控制、可重现性、测试、安全性及变更控制。
- 基于风险的性能评估:针对指定使用场景进行验证;对偏见、漂移和故障模式进行压力测试;预先定义验收标准。
- 全生命周期管理:在生产中持续监控,受控条件下重新训练,在重大变更后重新验证,并负责任地退役模型。
- 简明语言透明度:向研究者、评审人员和终端用户提供清晰易懂的关键信息,避免"黑箱"。
下一步行动(90天实用计划)
- 盘点AI使用情况:按领域(临床前、临床、CMC、安全性)分类整理当前和计划中的AI用例,并按风险和GxP相关性分级。
- 指定负责人:任命一位负责的AI产品负责人,并组建包含质量和临床代表的跨职能评审委员会。
- 定义使用背景:为每个模型记录目标、决策影响、用户、输入/输出、限制条件及人工干预点。
- 设定文档基准:创建模型卡片、数据表、验证计划和监控计划;标准化模板。
- 映射到标准:将控制措施与适用法规和共识标准对齐;记录差距及整改时间表。
- 验证与监控:建立验收标准、偏见和漂移检查、稳定性测试以及持续性能仪表盘。
- 变更控制:实施版本控制、重新训练的审批关卡以及触发重新验证的条件。
- 供应商监督:要求AI供应商提供透明度、可审计性和更新频率;包含审计权条款。
- 安全与隐私:保护数据集、模型产物和提示词;最小化个人身份信息(PII)并应用最小权限访问。
- 培训与沟通:为团队提供关于AI使用、限制和升级路径的简明指导。
与先前努力的一致性
这些原则呼应了国际监管机构和标准组织中所见的良好机器学习实践主题。预计将在研究、教育和共识标准方面继续合作,将这些原则转化为更详细的指南和评审期望。
结论
在药物开发中使用AI是受欢迎的——前提是有良好治理。将每个AI用例视为产品:定义背景、适当调整风险控制、记录决策并在全生命周期内进行管理。实施这些基本要素的团队将在评审中以更快速度前进,遇到更少意外情况。
【全文结束】

