人工智能在临床决策中的应用:监管路线图与报销策略Artificial Intelligence in Clinical Decision-Making: Regulatory Roadmap and Reimbursement Strategies | Akin Gump Strauss Hauer & Feld LLP - JDSupra

环球医讯 / AI与医疗健康来源:www.jdsupra.com美国 - 英语2025-12-31 18:06:22 - 阅读时长9分钟 - 4160字
本文深入分析了人工智能在临床决策领域的应用现状与未来发展方向,详细阐述了美国食品药品监督管理局(FDA)对AI/ML医疗设备的监管框架、国家卫生信息技术协调员办公室(ONC)关于预测性决策支持的政策更新、医疗保险和医疗补助服务中心(CMS)的报销策略,以及临床整合、算法偏见、医疗责任等关键议题,为医疗保健机构、AI开发者、临床医生和支付方提供了全面的监管路线图和战略建议,以应对AI在医疗领域应用中的复杂挑战。
人工智能临床决策监管路线图报销策略FDA监管CMS报销算法偏见健康公平性临床整合医疗责任AI治理框架
人工智能在临床决策中的应用:监管路线图与报销策略

人工智能在临床决策中的应用:监管路线图与报销策略

人工智能正在快速改变临床医学领域,AI工具越来越多地被用于诊断影像解读、临床决策支持、预测分析和治疗规划。随着医疗机构采用AI技术以及开发者将新产品推向市场,他们面临着不断演变的监管环境,包括持续的立法辩论、美国食品药品监督管理局(FDA)的监管、医疗保险和医疗补助服务中心(CMS)报销政策的变化、医疗责任考量以及临床整合挑战。

关键要点

  • 自1995年以来,FDA已授权超过1200种AI/ML赋能的医疗设备,近年来临床决策支持工具的授权数量加速增长。
  • CMS正在为AI赋能的服务制定支付政策,包括新的CPT代码和承保决定。
  • AI的临床整合引发了影响采用率的工作流程、责任和医生接受度方面的挑战。
  • AI算法偏见和健康公平性问题正推动监管审查并要求进行算法公平性评估。
  • 医疗保健利益相关者应建立解决验证、监测和临床监督的AI治理框架。

FDA对AI/ML医疗设备的监管框架

当AI和机器学习算法旨在用于诊断、治疗、缓解或预防疾病时,FDA将其监管为医疗设备。设备分类也决定了适用的监管途径。I类设备(风险最低)可能免于上市前审查,而II类设备通常需要通过510(k) clearance证明实质等效性。III类设备(风险最高)需要通过临床数据进行上市前批准。尽管许多已获授权的AI/ML支持设备不涉及临床决策支持(CDS),但那些用于CDS的设备最常通过510(k)途径获得授权。《21世纪治愈法案》通过澄清哪些软件被监管为医疗设备,哪些不被监管,支持CDS的开发。该法案将某些行政、电子健康记录、CDS、一般健康和健康管理工具排除在FDA作为医疗设备的监管之外。

获得FDA授权的关键AI/ML医疗设备类别包括:分析X光、CT和MRI以发现骨折和出血等的放射学AI;解释心电图和检测心律失常的心脏病学AI;协助组织分析和癌症检测的病理学AI;筛查糖尿病视网膜病变的视网膜成像AI,以及预测脓毒症或病情恶化的CDS算法。

FDA的设备和放射健康中心以及数字健康卓越中心为AI/ML设备监管提供了重点,并发布了关于CDS软件、自适应算法的预定变更控制计划和良好机器学习实践的指南。此外,FDA的数字健康卓越中心最近宣布了"技术赋能的有意义患者结果(TEMPO)数字健康设备试点",与医疗保险和医疗补助创新中心ACCESS模型相关联,旨在促进对某些数字健康服务的访问,同时保障患者安全。

一般来说,开发人员通过预提交会议及早与FDA接触至关重要,需要提供强有力的验证数据,证明算法在不同人群中的性能,解决潜在的算法偏见,并制定上市后监测计划以监控实际表现。

国家卫生信息技术协调员办公室与预测性决策支持

美国卫生与公众服务部国家卫生信息技术协调员办公室(ONC)于2023年12月13日发布了最终规则《健康数据、技术和互操作性:认证计划更新、算法透明度和信息共享》(HTI-1),该规则最终确定了对"预测性决策支持干预(DSI)"的广泛透明度和风险管理要求,其中包括基于AI的预测工具。正如我们在先前的警示中详细说明的,该规则似乎使受FDA监管为医疗设备的基于AI的软件面临额外要求,同时也确立了新的Insights条件和认证维护,并最终确定了ONC健康IT认证计划的其他更新。

在该规则中,预测性DSI是指"支持决策的技术,该技术基于从训练数据中得出关系的算法或模型,然后产生预测、分类、推荐、评估或分析的输出。"ONC的要求适用于各种预测工具,包括基于AI的工具,因此可能影响某些由FDA批准或清除的作为医疗设备的软件(SaMD),这可能与它们的清除和批准条款不同。某些SaMD的赞助商应评估这些新要求是否与FDA要求产生任何冲突。

CMS对AI赋能服务的承保与报销

随着临床采用率的提高,AI赋能服务的医疗保险支付政策正在演变。一个例子是2026年医院门诊服务设施(OPPS)最终规则,该规则在OPPS下为AI辅助心脏分析建立国家报销。美国医学协会的CPT编辑小组还为AI赋能服务建立了多个I类CPT代码,包括AI辅助视网膜成像分析和心脏成像解释的代码,同时随着AI应用的扩展,正在考虑额外的代码。此外,CMS的地方承保决定(LCDs)涉及AI技术,建立了包括临床适应症、提供者资格和文件要求在内的承保标准。CMS还通过其"有证据开发的承保"途径评估AI技术,该途径在收集证据的同时提供有条件、有限的承保。

从长远来看,为了让医疗保险支付政策跟上创新的步伐,可能需要进行结构性变革。由于医疗保险的定义福利类别以及针对不同类型提供者和临床环境的不同支付系统,目前没有标准方法来覆盖和支付每个FDA批准的AI赋能设备。承保政策是项目或服务特定的,AI的早期采用者常常面临不确定性,即他们的项目或服务是否会被视为"合理必要",从而有资格获得支付。此外,即使某项服务被承保,现有的支付方法可能也无法充分报销AI工具。国会正在探索消除其中一些结构性障碍的方法,以确保医疗保险受益人能够获得AI驱动的技术。一个例子是今年早些时候提出的《健康科技投资法案》,该法案旨在为FDA批准的、基于算法的医疗服务建立医疗保险报销途径。

临床整合与工作流程挑战

从临床角度看,将AI整合到医疗实践中需要重新设计工作流程、医生培训以及对人机交互的密切关注。关键整合挑战包括:警报疲劳(过多的AI生成警报导致临床医生脱敏);如果AI工具增加步骤或减慢流程,会导致工作流程中断;可解释性需求,因为临床医生必须理解AI推理才能信任建议,以及与电子健康记录和临床系统的整合。

急诊医学提供了这些要点的说明性例子。在头部CT扫描上检测关键发现的AI算法,如果能立即提醒医生,可以加速中风治疗。但如果警报在医生管理其他危重病人时到达,或者假阳性率很高,这些工具可能会增加更多负担而非益处。

医生对AI的接受程度因专业和情境而异。当算法提供对其推理的解释、性能指标透明且定期更新,以及系统允许医生在适当记录的情况下进行覆盖时,信任度会增加。

医院和医疗系统应在AI部署前进行工作流程分析,为其临床医生提供关于AI工具使用和限制的全面培训,为提供者建立反馈机制,监控覆盖率,并持续评估AI对临床效率和结果的影响。

算法偏见与健康公平性考量

算法偏见——AI预测中使特定群体处于不利地位的系统性错误——已成为一个关键问题。偏见可能源于训练数据对某些人群的代表性不足、跨群体系统性不同的结果定义,或包含受保护特征代理的特征选择。

监管反应正在联邦和州两级出现。FDA关于良好机器学习实践的指南强调了多样化训练数据和跨人口亚组的性能评估,而包括科罗拉多州、犹他州、马萨诸塞州和德克萨斯州在内的几个州已提出立法,要求对用于医疗决策的AI进行算法影响评估。这些州级立法努力,其中一些关注风险管理、透明度、提供者监督和健康保险公司使用AI,可能与FDA监管工作相辅相成且有区别,需要关注。

部署AI的医疗系统应考虑在FDA努力的基础上,评估训练数据的多样性,在人口亚组中进行性能验证,按种族、民族和性别监测实际表现,建立审查潜在偏见的治理流程,并确保临床工作人员接受培训以识别潜在的AI偏见。

医疗责任与护理标准考量

AI在临床实践中的使用引发了新的责任问题。如果AI算法漏诊或提供不正确的建议,谁应承担责任——医疗机构还是算法开发者?

法院尚未明确解决AI责任问题,但一些原则正在形成。医生对患者护理决策负有最终责任,不能将医疗判断委托给AI。但在工具被广泛采用的情况下,护理标准可能会演变为纳入AI使用。在某些情况下,不使用可用的AI工具可能构成疏忽。记录AI工具使用情况以及医生在覆盖建议时的推理,对于在医疗事故索赔辩护中非常重要。此外,医疗机构面临着因未充分验证而疏忽选择AI工具、未能对员工进行适当AI使用培训、对AI性能监测不足,以及在已知性能问题后继续使用的潜在机构风险。

医疗机构应建立审查工具选择和部署的AI治理委员会,在临床部署前进行严格验证,实施监测系统以检测性能下降,制定关于AI使用记录和覆盖程序的政策,并审查专业责任保险对AI相关风险的覆盖范围。

对医疗保健利益相关者的影响与未来展望

几个政策问题将塑造AI在医疗保健中的未来:如何整合临床决策支持软件,如何在确保安全的同时支持自适应算法,如何在保护隐私的同时促进AI开发的数据访问,如何解决AI辅助决策的责任问题,以及如何促进算法公平性和健康公平性。

医疗保健组织应监控监管发展,建立机构AI治理能力,投资于关于AI使用和限制的员工培训,并制定与临床和财务目标一致的AI采用战略计划。

  • 医疗系统和医疗服务提供者:在临床部署前制定AI治理框架和监督委员会,同时进行严格的验证和偏见评估。临床工作人员应接受关于适当AI使用和限制的培训,监控AI的实际表现,并持续评估与AI相关的患者结果。
  • AI开发者和健康技术公司:及早与FDA和CMS接触,并制定全面的监管战略。开发者应优先考虑多样化训练数据和公平性评估,同时创建上市后监测能力。在开发过程中,建立临床效用证据以支持报销,以及解决商业模式中的责任和保险考量应该是持续关注的领域。
  • 医生和临床专业人员:临床医生在使用AI工具时有责任保持专业怀疑态度和临床判断。AI性能指标的透明度以及理解临床决策建议背后的推理对于提供安全的医疗服务非常重要。
  • 健康计划和支付方:AI赋能服务的承保环境高度不稳定。鼓励计划和支付方基于坚实的临床证据为AI赋能的服务制定承保政策。包含AI的价值导向合同可能有助于提高质量和效率,监测AI对护理模式和成本的影响将很重要。
  • 医疗保健投资者:与AI相关的投资的监管和报销途径将对投资组合公司产生重大影响。投资者需要对算法验证、偏见评估和临床证据进行尽职调查,以评估AI医疗技术的竞争地位,同时了解投资组合公司的潜在责任影响。

人工智能在临床医学中呈现了一个变革性机遇,但也处于复杂的监管和报销环境中。成功需要在临床、技术、监管和业务领域之间进行协调。

【全文结束】

猜你喜欢
    热点资讯
    全站热点
    全站热文