透明模型卡片和分层可访问信息能否推动医疗AI的信任与安全?Could transparent model cards with layered accessible information drive trust and safety in health AI?

环球医讯 / AI与医疗健康来源:www.nature.com德国 - 英语2025-02-25 21:00:00 - 阅读时长8分钟 - 3977字
本文探讨了透明模型卡片(Model Cards)和图形“营养标签”在医疗AI中的应用,旨在通过标准化信息提高透明度,促进患者、医疗服务提供者和部署者的信任与安全性,并讨论其在通用目的AI(GPAI)中的适用性及潜在挑战。
医疗AI模型卡片医疗器械标签可访问性分层信息通用目的AI透明度监管措施健康AI联盟信息验证
透明模型卡片和分层可访问信息能否推动医疗AI的信任与安全?

我们把“模型卡片”和图形“营养标签”置于患者、医疗服务提供者和部署者的信息需求背景下进行探讨,讨论这些方法对通用目的AI(GPAI)模型的适用性。如果这些方法要有效且安全,它们需要与监管措施相结合,并链接到更深层次的开放和详细模型信息,并通过用户测试进行优化。

最近,健康AI联盟(CHAI)提出了受“营养标签”启发的“模型卡片”,用于医疗AI。其目的是提供一个标准的用户可识别标签模板,透明地呈现关键信息,供需要评估AI解决方案及其性能和安全性的人员参考。CHAI模型卡片(图1)提供的信息包括模型描述、警告、预期用途以及评估公平性和平等的方法和指标。模型卡片主要面向在卫生系统采购过程中审查AI模型的专业人士和电子健康记录(EHR)系统的供应商(作为信息起点),同时也面向患者、临床医生、卫生系统数据保管人和开发者。CHAI的提议是一个很好的想法,因为透明度通过熟悉和标准化的方法是非常必要的。那么,这种做法可能存在哪些反对意见呢?尽管我们支持该提议的许多方面,但其实施将是关键,以避免三个已知的问题。第一个问题是与其他强制性监管程序(如医疗器械标签)的重复和整合。第二个问题是,许多监管举措常见的是治理结构(例如模板、数据库或标准)在设计时没有进行足够的用户测试和概念细化。第三个问题是表面化的“透明度”声明风险,其中信息被巧妙传达,但在很多情况下,就像许多营销活动一样,它提供的关于模型性能或伦理框架的可验证真实信息有限。

图1:AI模型的“模型卡片”布局

此布局基于CHAI提出的模型卡片。模型卡片旨在表示与AI模型识别、开发者、预期用途、目标患者群体、模型类型、适用的数据类型、性能指标、认证/批准信息、本地校准和维护要求、已知风险、超出范围的用途、已识别的偏差、伦理考虑和其他信息(例如临床研究)相关的关键信息。

为了避免重复并确保与监管方法的整合,特别需要注意国际上对医疗器械标签和“使用说明”(IFU)的要求,因为在国际上,执行医疗目的的AI模型被归类为医疗器械。现有法规要求设备准备标签和IFU(少数软件设备除外,如果可以证明其接口提供了使用说明)。

医疗器械标签与模型卡片的比较

对于医疗器械,包括AI模型,法律规定了IFU的许多要求,但并未标准化这些信息的布局。虽然这些文件提供了大量有用的信息,但它们并未像模型卡片那样标准化能力、局限性、安全、性能、验证或其他参数的布局。想要了解医疗AI适用性的患者、开具医疗AI处方的医生或希望在当地医院实施AI工具的卫生系统买家和信息系统实施工程师,很难从当前的IFU中提取用于并排比较的信息。

在美国、英国和欧盟,已经有一项法律要求对标准化的强制性医疗器械标签(因此,延伸到用于医疗目的的AI模型)。然而,这提供了高度技术性的信息,如批号和序列号、评估认证机构(公告机构)和进口商的名称(图2)。它并未提供患者可能需要的具体信息或对AI系统引入和实施至关重要的信息。

图2:用于医疗目的的AI模型所需医疗器械标签示例

这是欧盟标签的一个例子,使用了ISO 15223-1:2021规定的标准符号,与国际医疗器械法要求的标签非常相似(参见参考文献18中的美国类似例子)。

我们同意,更标准的信息布局可以帮助用户快速熟悉,从而有助于他们比较不同的AI模型。CHAI提出的模型卡片(图1)并不包括所有医疗器械标签上的信息(图2),但这两个概念可以一起提供或合并,后者更为优越,因为可以避免重复数据。

对不同用户的可访问性和易懂性

AI开发和验证使用了大量的技术术语,这些术语对普通用户甚至医疗保健提供者(除非他们接受过高级技术培训)来说并不容易理解。如果AI标签传达了信息但未能真正传达理解,则其实用价值有限。对于许多患者和一些医疗保健提供者而言,拟议的模型卡片和医疗器械标签上的信息可能是难以理解的。可以说,这两种方法都不是以这些用户群体为主要考虑对象的。标签和产品信息是否需要让患者易于理解?法律规定IFU必须经过可用性测试,评估用户(包括适用的患者用户)遵循关键指令的能力。向用户和公众解释技术信息依赖于简单和统一。我们提倡对提供给用户的信息进行更大的标准化,以高度可用的格式呈现,使每个产品的外观相同,并采用标准化的布局来包括、排序和排列信息。当用户面对每种新产品格式不同的详细信息时,无论在呈现信息方面花费了多少努力,都可能导致信息重叠和疏离。CHAI的模型卡片提供了一种高度标准化的格式,但有趣的是,它是完全基于文本的,带有简单的标题和重复的表格元素。在标题下,它提供了文本框形式的模型描述,但不清楚这些响应可以有多长,并规定应提供链接以指向验证过程及其理由。

其他作者提出了基于食品营养价值标签、食品原产地标签和能源效率标签的图形方法,用于向消费者提供信息,包括AI(图3)。这些方法侧重于AI模型的伦理标签,但描述的领域与CHAI模型卡片重叠(例如,公平性和平等)。消费者已经习惯了简单的彩色评分尺度,这些评分尺度可以快速传达复杂信息,使消费者能够快速做出决策。这种方法适用于医疗领域的AI吗?如果此类方法用于传达关键的安全信息,则可能不适用,并且不应替代固有的安全设计。然而,它们可以用于传达有关数据来源伦理、模型训练中的伦理就业实践以及负责任的数据隐私、反歧视和知识产权保护的信息。

图3:用于AI伦理的彩色评分“营养标签”示例

在食品标签和能源效率标签中认识到,通信最好通过高度标准化和易于解释的颜色评分和简单评分来实现。类似的方法已被提议用于AI伦理标签。

分层可验证信息以避免标签成为虚假主张的渠道

AI模型卡片具有简洁之美,但美丽不仅仅在于表面。为了既实用又安全,模型卡片(如果使用,患者的AI“营养标签”)必须链接到可验证和更新的模型安全性和性能数据。任何标签或模型卡片的质量仅取决于其所总结信息的真实含义。

CHAI的“模型卡片”已经通过其信息排序方式实现了一定程度的信息分层,从目标到结果,再到方法,最后链接到外部资源,以提供理由和更详细的方法描述。信息分层从高层次原则开始,逐步链接到更复杂和详细的信息,是一种长期用于结构化信息的方法,越来越多地应用于数字信息工具,例如维基百科。如上所述,分层信息有两个主要目的(图4)。首先,它允许高层摘要对许多用户(包括一些患者和非技术娴熟的医疗保健提供者)简单易懂,同时允许好奇的用户根据所需的细节查看更深层的信息。这服务于第二个目的,即用户至少可以在某种程度上验证摘要和数据之间的兼容性。适当的机制应协助报告问题。

图4:信息分层对可访问性和真正(而非虚假)透明度至关重要

患者和非细节导向的医疗保健提供者可以访问简单信息,但这些信息必须始终链接并与低级信息和开放的外部测试/基准数据交叉验证,以避免模型卡片从真正的透明度变成误导性营销主张的工具。

通用目的AI的可访问分层“模型卡片”的适用性

通用目的AI(GPAI)模型在医疗领域的直接和间接使用日益增加,这些模型对专门为监督和规范特定开发(通常是窄范围)AI驱动医疗设备而开发的方法提出了挑战。欧盟AI法案对GPAI提供商提出了一系列要求。GPAI模型的开发者必须向下游AI系统提供商提供大量信息。当GPAI模型的开发者直接将系统应用于医疗或将其用于医疗目的时,他们就成为了高风险AI系统的提供商。有意义的透明度和下游医疗设备制造商之间有用信息的交换需要共同的透明度和模型测试方法,这些方法最好通过标准化方法来实现。这引发了问题:模型卡片应该只适用于下游医疗设备产品(例如,具有定义的预期用途和目标人群的批准临床决策支持系统),还是也应适用于作为后续批准医疗设备产品基础的GPAI模型?换句话说,模型卡片能否用于描述GPAI模型提供商的基本主张?下游医疗AI系统的提供商必须从GPAI提供商处获得大量信息,以便满足AI法案的信息要求,并在必要时将这些信息传递给部署者和用户。一旦GPAI模型提供商为其GPAI提供模型卡片,这些模型是否会直接被医疗保健提供者和患者使用(即使模型卡片和法律规定它们不应该这样做),从而绕过了开发、微调和批准的下游医疗设备产品?如果这些模型可供下游用户使用,这种情况可能会发生。如果监管机构希望阻止这种情况,就需要与用户进行强有力的互动并采取严格的执法行动。

在透明度与实际实施之间取得平衡

CHAI的模型卡片通过标准化表格总结了这一关键模型信息。我们是否建议将简单的模型卡片变成一个“官僚怪物”?

我们认为,模型卡片在其用户手中的实用性必须通过代表性的定量和定性评估来衡量,考虑到文化和国际差异。据我们所知,模型卡片尚未进行系统测试,应在广泛采用之前进行测试。重要的是,这种方法应获得监管认可,否则难以持续发展。

一个更难的挑战是确保卡片中提供的信息可靠且真正透明。如果未经严格审核,模型卡片可能会变得对用户高度可访问,但底层信息主要是欺骗性的营销宣传,而不是真正可靠的透明信息。这对健康AI来说是一个明确且现实的危险,必须避免以维护公共安全和防止公众对健康AI的信任侵蚀。这不是危言耸听——2024年9月,美国司法部长调查结束,一家公司在德克萨斯州几家医院部署了一款GPAI医疗文档和摘要工具,在关于其产品准确性和安全性的声明中存在一系列虚假和误导性陈述。模型卡片可以成为保障安全和道德使用AI的系统,也可以变成一场闹剧,各公司竞相在真正的透明度上退步,在声称的性能上领先,通过调整百分比以获得更好的营销信息,但没有可靠的数据或独立审计的支持。健康AI需要创新的概念,如CHAI的模型卡片,甚至是患者使用的图形“营养标签”,但也应对其进行良好的验证,与监管标签集成,并最重要的是,包含经过验证的可审计和开放信息。


(全文结束)

大健康

猜你喜欢

  • 眼科领域中人工智能对白内障和糖尿病视网膜病变的影响眼科领域中人工智能对白内障和糖尿病视网膜病变的影响
  • Deepnoid选择日本作为AI技术试验场,随后进军美国Deepnoid选择日本作为AI技术试验场,随后进军美国
  • Inovalon推出临床研究患者匹配器以加速试验招募Inovalon推出临床研究患者匹配器以加速试验招募
  • 肯塔基商会举办首届医疗创新峰会肯塔基商会举办首届医疗创新峰会
  • 医疗先锋的万亿美元AI基础设施愿景——Metro Connect 2025医疗先锋的万亿美元AI基础设施愿景——Metro Connect 2025
  • AI赋能医疗设备行业:从数字化到数据化的转变AI赋能医疗设备行业:从数字化到数据化的转变
  • 从新冠疫情初期到AI革命,普罗维登斯领导谈医疗转型从新冠疫情初期到AI革命,普罗维登斯领导谈医疗转型
  • 人工智能能否预测下一次大流行?一项新研究表示可以人工智能能否预测下一次大流行?一项新研究表示可以
  • 新AI工具测量大脑衰老速度并预测认知健康新AI工具测量大脑衰老速度并预测认知健康
  • AI模型测量大脑衰老速度,有助于预测认知衰退AI模型测量大脑衰老速度,有助于预测认知衰退
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康