OCR发布关于医学中AI使用的“亲爱的同事们”信函OCR Issues "Dear Colleagues" Letter Regarding AI in Medicine

环球医讯 / AI与医疗健康来源:www.jdsupra.com美国 - 英语2025-01-25 11:00:00 - 阅读时长4分钟 - 1845字
本文介绍了美国卫生与公众服务部(HHS)下属的民权办公室(OCR)发布的最终规则和“亲爱的同事们”信函,详细说明了医疗机构如何合规使用患者护理决策支持工具,特别是涉及AI算法的风险识别和缓解措施。
OCRAI医疗保健最终规则患者护理决策支持工具受保护实体平价医疗法案风险识别风险缓解歧视输入变量合理努力治理措施培训审计披露合规联邦财政援助卫生与公众服务部非营利AI组织同行评审医学期刊
OCR发布关于医学中AI使用的“亲爱的同事们”信函

2024年5月6日,OCR发布了最终规则,解释并实施了《平价医疗法案》第1557节在45 C.F.R. § 92中的规定(最终规则)。该最终规则监管了患者护理决策支持工具的使用,包括用于筛查、风险预测、诊断、预后、临床决策、治疗计划、医疗保健运营和资源分配的人工智能(AI)算法。

2025年1月10日,OCR发布了一封“亲爱的同事们”信函,重点关注受保护实体如何在其使用患者护理决策支持工具时遵守最终规则的要求。

患者护理决策支持工具被定义为“任何由受保护实体用于支持其健康项目或活动中的临床决策的自动化或非自动化工具、机制、方法、技术或组合。” 45 C.F.R. § 92。此定义包括用于诊断、治疗、患者监测或任何其他医疗保健操作中的人工智能(AI)算法。受最终规则约束的受保护实体包括:(1)联邦财政援助的接受者;(2)美国卫生与公众服务部;(3)根据《平价医疗法案》第一篇设立的实体。

那么,使用AI进行医疗保健操作的受保护实体必须做些什么呢?

除了禁止在受保护实体的健康项目或活动中基于种族、肤色、国籍、性别、年龄或残疾的歧视外,1月10日的信函还扩展了最终规则中的两个具体要求:

风险识别——首先,受保护实体有“持续义务,合理努力识别其健康项目或活动中使用患者护理决策支持工具时,输入变量或因素是否测量了种族、肤色、国籍、性别、年龄或残疾。” 45 C.F.R. § 92.210(b)。最终规则并未具体描述受保护实体应如何做出这些合理努力,但1月10日的信函提供了以下示例:

  • 审查OCR在第1557节最终规则中讨论的风险,包括用于评估心力衰竭、癌症、肺功能和血氧水平等工具的类别;
  • 研究同行评审医学期刊或来自医疗保健专业协会和医院协会(包括HHS发布的研究)的已发表文章;
  • 使用、实施或创建由非营利AI组织或其他机构开发的安全AI注册表,包括受保护实体内部使用的注册表,以确定组织内的使用案例;
  • 获取供应商提供的现有患者护理决策支持工具中包含的输入变量或因素的信息。

1月10日的信函还明确指出,OCR审查受保护实体是否“合理努力”识别风险将通过个案分析进行,可能考虑多个因素,包括:

  • 受保护实体的规模和资源(例如,拥有IT部门和健康公平官员的大医院可能比没有此类资源的小型提供者需要付出更大的努力来识别工具);
  • 使用时的可用信息,以确定是否有潜在的歧视性使用通知,如果产品基于种族、肤色、国籍、性别、年龄或残疾输入变量;
  • 受保护实体是否按照开发者和监管机构(如适用)的意图和批准使用工具,或者是否适应或定制了工具;
  • 受保护实体是否从工具开发者处获得产品信息,了解其潜在的歧视风险,或识别工具的输入变量是否包括种族、肤色、国籍、性别、年龄或残疾;
  • 受保护实体是否建立了评估所采用或使用的患者护理决策支持工具的方法或流程。

风险缓解——其次,对于每个识别出歧视风险的患者护理决策支持工具,受保护实体必须“合理努力减轻因使用该工具而产生的歧视风险。” 45 C.F.R. § 92.210(c)。1月10日的信函再次提供了具体的缓解措施示例:

  • 建立书面政策和程序,管理患者护理决策支持工具在决策中的使用,以及治理措施;
  • 监控潜在影响并开发解决投诉的方法;
  • 维护内部AI注册表或参考非营利AI组织或其他机构开发的AI注册表,为受保护实体提供内部使用情况信息,并促进法规遵从;
  • 利用员工覆盖并报告由患者护理决策支持工具做出的潜在歧视性决定,包括确保“人在环中”审查机制,由合格的专业人员审查工具的决定;
  • 培训员工,包括如何报告结果和解释工具做出的决定,包括其他联邦规则要求的因素;
  • 建立登记册,记录被识别为存在歧视风险的工具,并审查这些工具之前的决定;
  • 审计工具在“真实世界”场景中的表现,并监控工具是否存在歧视;
  • 向患者披露受保护实体使用的患者护理决策支持工具,这些工具已被识别为存在歧视风险。

受保护实体是否采取了合理的努力来缓解歧视风险将取决于多种因素,如实体规模、AI工具的使用背景或用于处理投诉的政策。值得注意的是,OCR认为,如果AI工具使用了像种族这样的输入变量,可能会触发更严格的审查,而像年龄这样的输入变量更可能具有临床和证据基础的目的,因此需要额外的缓解政策和努力。

虽然最终规则关于禁止在使用患者护理决策支持工具时歧视的规定已于2024年7月5日生效,但要求合理努力识别和缓解使用这些工具时的歧视风险的规定将于2025年5月1日生效。


(全文结束)

大健康

猜你喜欢

  • 2025年将改变医学的七大医疗趋势2025年将改变医学的七大医疗趋势
  • 问答:新医疗AI模型可通过多种图像类型识别系统性疾病问答:新医疗AI模型可通过多种图像类型识别系统性疾病
  • 你能信任来自ChatGPT的AI医疗建议吗?你能信任来自ChatGPT的AI医疗建议吗?
  • AI和新技术:制药业如何重塑自我以满足日益紧迫的需求AI和新技术:制药业如何重塑自我以满足日益紧迫的需求
  • 人工智能与心理健康护理——伦理关切与监管回应人工智能与心理健康护理——伦理关切与监管回应
  • 可解释的人工智能在医疗保健中的临床应用和可用性可解释的人工智能在医疗保健中的临床应用和可用性
  • 六家值得关注的人工智能药物发现公司六家值得关注的人工智能药物发现公司
  • 制药公司如何与生物技术和数字健康初创企业建立互惠关系制药公司如何与生物技术和数字健康初创企业建立互惠关系
  • 医疗AI前景广阔,但当前的监管方式存在危险医疗AI前景广阔,但当前的监管方式存在危险
  • 2025年制药与生命科学领域的展望2025年制药与生命科学领域的展望
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康