我们能否在有生之年治愈所有疾病?
几个世纪以来,人类始终致力于攻克疾病。随着人工智能技术的突破,无病时代已前所未有地接近现实。AI在提升医疗质量、加速药物研发、降低医疗成本方面展现出巨大潜力,有专家预言"AI在医疗领域的普及程度将堪比听诊器"[1]。但这项技术的快速发展也带来安全风险、隐私泄露和算法偏见等新挑战,亟需建立完善的监管与伦理框架。
一、人工智能在医疗领域的角色
AI正在通过药物研发、疾病诊断、治疗方案优化、患者监护和行政管理等多个维度重塑医疗体系。例如谷歌的Med-PaLM系统、斯坦福的CheXNet平台,以及NVIDIA与Hippocratic AI的合作项目。2024年4月,世界卫生组织推出基于生成式AI的健康促进工具S.A.R.A.H(健康智能AI资源助手),具备八种语言的共情交互能力。
未来趋势表明,医疗企业、科技公司和研究机构的跨界协作将持续深化,这种协同效应将推动医疗服务模式创新和患者治疗效果提升。
二、医疗AI的法律监管框架
医疗AI的监管需要平衡科技创新与人权保障。不同司法管辖区采取差异化策略:欧盟、日本、韩国和中国已制定专项AI法律,而英国、美国和澳大利亚则通过既有技术中立法规进行规范[2]。这种监管差异导致企业面临显著的合规成本。我们主张建立国际协作机制,构建促进全球人类福祉的统一框架。
a. 监管框架概览
当前法律体系
国际组织和各国政府正积极制定行业标准。世卫组织发布的医疗AI指南强调伦理准则,要求系统设计须尊重患者隐私、促进公平、消除偏见。经合组织2024年更新的AI原则,确立了全球首个政府间AI标准,旨在平衡创新与人权。
具体司法实践方面:
- 美国FDA已批准超1200项AI/机器学习医疗设备,并发布AI药物研发指南[4]
- 欧盟AI法案将医疗AI分为高风险、透明度触发、通用型等类别,2026年8月起实施
- 英国MHRA推行"AI医疗器械"新规,聚焦系统可解释性与模型持续训练
- 中国两部门联合发布AI医疗设备注册指南,明确诊疗、公共卫生等应用场景规范
领先企业正在建立内部AI伦理审查机制,包括独立伦理委员会,在国际法规成熟前确保研发安全。
风险分级监管建议
建议建立分级监管体系,根据应用风险等级制定审批流程:
- 低风险:医疗培训、疾病宣传等自动化工具
- 高风险:自主手术系统、生命体征监测设备
评审团队应包含医疗、法律、伦理等多领域专家。例如欧盟通用AI行为准则(GPAI Code)虽非强制,但为模型透明度、版权保护等提供操作指引,其执行将重点关注输出过滤等技术挑战。
b. 数据保护与隐私
医疗数据的敏感性要求严格隐私保护。美国企业进入欧盟市场时,需特别注意:
- 数据处理的合法性依据选择
- 特别是"合法利益"原则的适用边界
欧盟数据保护委员会2024年12月发布AI数据处理指南指出,虽可适用合法利益原则,但需通过平衡测试并建立严格保障措施。例如医疗聊天机器人、欺诈检测等有限场景可使用该原则。
c. 专业责任认定
确定AI系统故障责任涉及复杂的法律问题。完全自主决策场景下,开发者可能承担主要责任;人机协同场景可考虑严格责任制度或强制责任保险。世卫组织建议设立无过错补偿基金,欧盟议会2025年7月研究报告支持针对高风险AI建立严格责任机制[9]。
三、伦理挑战
a. 算法偏见引发的歧视
医疗AI存在两类主要偏见风险:
- 差异影响风险:美国研究发现黑人患者的疾病风险评分系统存在系统性低估,因其使用医疗支出而非病情严重度作为评估指标
- 误诊风险:皮肤癌诊断AI对深肤色患者准确率较低,源于训练数据集中白人样本占比过高[13]
b. 透明性与可解释性
医疗决策的可解释性是患者知情权的基础。但生成式AI的"黑箱"特性导致解释困难,神经网络可解释性技术的发展[14]为此提供解决方案。
c. 人机决策边界
需明确AI在临床流程中的角色定位:
- 替代决策:如皮肤癌检测系统
- 辅助决策:需设置人机协作机制
例如当AI检测出可疑病灶而医生判断为阴性时,应启动二级复核而非简单否决。
四、结论
人工智能为医疗领域带来革命性机遇,但需要政策制定者、医疗专业人员、AI开发者和法律专家的协同努力。建议建立基于场景的风险评估机制,推动国际标准互认,同时在技术创新与伦理约束间取得平衡。
* * *
贡献者:
David Egan(葛兰素史克全球数字与隐私事务助理总法律顾问)
Jieni Ji(安理国际律师事务所合伙人)
脚注
[1] 斯坦福商学院,2024年5月15日发布
[2] 美国各州已制定数百项AI相关法规
[4] 美国FDA,2025年7月10日更新数据
[9] 欧洲议会2025年度研究报告
[13] 黑色素瘤研究联盟2022年报告
[14] Shaham T等,ICML 2024会议论文
【全文结束】

