人工智能——已经在医疗保健领域蓬勃发展的行业——要取得成功,不仅需要智能创新,还需要对监管本身进行改革。这是因为目前的FDA设立是为了评估像药品和设备这样的产品,这些产品通常不会改变。相比之下,AI程序会根据指导它们的数据不断演变。因此,在这些系统建成时进行评估是不够的,它们需要持续的监督,尤其是在患者接受护理的地方,因为患者的特征甚至数据定义可能会随着时间和地区的变化而变化,从而影响AI的结果。
“我们需关注床边”,LDI高级研究员Daniel Herman表示,“这不是FDA监管的空间。”
幸运的是,Herman和LDI高级研究员Gary Weissman已经找到了一个现成的解决方案。几十年来,医疗保险和医疗补助服务中心(CMS)通过结合本地专业知识、性能验证和监控以及外部审查的要求,监管临床实验室测试。这套被称为《临床实验室改进修正案》(CLIA)的系统,可以为AI迫切需要的本地问责制提供支持。Herman、Weissman及其同事Jenna Reece在《npj数字医学》上的一篇评论中写道:“医学是本地实践的。对于AI模型来说,这种本地背景对于很多模型来说非常重要。CLIA在数十年间成功地进行了医疗测试的本地监管,这是一种经过时间考验的方法。”
AI从新信息中学习的独特能力也可能是其最大的弱点,FDA无法单独解决这个问题。“我们需要关注床边”,Herman说,“这不是FDA监管的空间。”然而,许多学术中心正在推进在多个领域构建自己的AI系统,Weissman指出,大多数认为自己不受FDA监管的约束,因为FDA只适用于跨州销售的产品。
CLIA的实验室测试模型可以在不阻碍创新的情况下带来一定程度的安全性。其对实验室工作的监督取决于测试的复杂性和患者伤害的风险。风险较低的测试(如怀孕测试)可以在家中或由没有实验室培训的临床医生监督下进行。高风险测试(如癌症筛查或记录心脏病发作的测试)则需要更广泛的审查,包括在所有使用地点进行验证和监控。
作为病理学家,Herman对CLIA非常熟悉,因为他负责宾夕法尼亚大学医院(HUP)的内分泌实验室。CLIA之所以有效,是因为有责任人在像HUP这样的医院和接收样本的私人实验室中,持续验证测试是否正常工作,并有明确的政策和文件跟踪发生的情况。CLIA还要求私人商业实验室承担一定的责任,这一点应该扩展到托管临床AI产品的公司。责任至关重要,因为人们的健康处于危险之中。许多AI工具都是黑箱操作,内部运作缺乏透明度。单个临床医生无法完全理解这些工具可能出现的所有问题并捕捉错误。
作者承认,关于这种监督如何资助存在疑问。电子病历供应商和其他人可能会反对CLIA过于繁重,可能抑制创新。与此同时,其他提案也出现了,呼吁通过FDA或第三方测试实验室加强产品测试,并使用CMS现有规则强制本地AI产品监督。Herman和他的同事们认为CLIA会是一个更好的选择。虽然它并不完美,但“监督水平远高于大多数医学领域”。
变革的动力似乎在增长。参议院财政委员会于2024年2月举行了一次听证会,讨论医疗保健中AI的前景和隐患。另一组研究人员来自犹他大学、杜克大学和德克萨斯大学的研究人员在宾大LDI小组发布前约一周提出了类似的扩展CLIA至AI的建议。
Weissman表示,平衡监管与创新是当务之急。他将AI比作汽车技术。作为一名自16岁就开始开车的人,他可以更换机油。当新技术出现时,他和许多其他人有几十年的经验来指导如何使用它们。“对于生成式AI,我们只有1年半的经验,”他说,即使是许多专家也不了解这些AI程序的工作原理。“这项技术的能力远远超过了我们的监管框架、经验和理解。”
(全文结束)

