在医疗保健行业中,人工智能(AI)治理是一个棘手的话题。利益相关者必须合作为这项新技术制定合理的规则——但这种透明度也伴随着风险,健康科技领导者在最近的一次《新闻周刊》活动中进行了讨论。
该网络研讨会“医疗保健的AI手册:构建安全、智能和可扩展的系统”于5月20日举行。专家小组包括联合健康AI联盟(CHAI)的联合创始人兼首席执行官布莱恩·安德森博士;DLA Piper的AI和数据分析实践全球联合主席丹尼·托贝博士;Alignmt.AI的首席执行官安德里亚·博德纳里博士以及杜克健康的副教务长兼首席数据科学家迈克尔·彭奇纳博士,他们与医疗保健决策者进行了交流并回答了问题。
在整个讨论中,小组成员承认了AI模型通用标准的局限性。性能可能因组织而异,取决于领导优先级、一线用户和患者数据。
一位观众提出了一个问题:“我们如何有效地收集AI部署的结果,并突出特定情境下的最佳实践,作为国家AI结果注册表的一部分?”
这个项目正在安德森的联合健康AI联盟(CHAI)进行。今年2月,该非营利组织宣布与Avanade合作,开发一个公共注册表,用于其健康AI应用模型卡。这些卡片就像AI工具的“营养标签”,为潜在用户提供有关技术开发及其已知风险的信息。该注册表集中了这些信息,创建了一个行业范围内的数据库,包含信息、应用程序和经验教训。
安德森表示,该项目仍处于早期阶段,但他希望它能成为CHAI成员组织的“市场后或部署后监控网络”。
“我们需要了解这些模型在当地的实际表现,重要的是,[识别]在一个群体或一个地理区域与另一个之间的性能差异,”安德森说。例如,数据可能显示某个模型随着时间的推移而退化——或者,在某个意外的临床专业中持续产生积极的结果。集中这些信息可以使CHAI及其成员发现趋势,增加对健康AI应用的不断增长的知识体系。
“我们在CHAI试图创建一个公共空间,让医疗系统可以安全地分享这些信息,即关于如何部署和使用AI的最佳实践,”他继续说道。
最终,这样的注册表可以在检测到新的漏洞时催化行动,Alignmt.AI的博德纳里补充道,类似于国家标准与技术研究所(NIST)向认证企业标记漏洞的方式。
“如果你贡献给一个公共AI注册表,这是新的、可操作的信息,你可以带回家,”博德纳里说。“如果你部署了一个环境AI工具,并收到通知,称某个特定患者群体存在漏洞,这就是你必须立即采取行动的事情。”
尽管杜克健康是CHAI的创始成员之一,并且是注册表的早期合作者,彭奇纳承认隐私问题可能会限制贡献。供应商和医疗系统可能不愿意分享某些信息或与大型网络分享信息:“有愿意这么做的成分,”他说。
托贝同时拥有医学博士学位和法学博士学位,从法律和医学的角度来看这个问题。由于健康AI市场仍然大部分未受监管,他建议政府需要提供一些立法激励措施,以鼓励医疗系统分享数据。
“当你创建存储库,当你创建报告时,机构参与其中会有风险,”托贝说。“政府可以发挥的一个非常建设性的角色是激励良好行为。”
这可能看起来像对参与自愿披露或注册表的组织的安全港或谨慎推定,托贝说。
安德森同意这一观点,并表示CHAI正在探索一种特定于AI的患者安全结果注册表,以增强对成员的保护。
“适当且重要的是要引起注意,医疗系统需要这些激励措施和保护,以便我们能够获得所需的透明度,”安德森说,“特别是在这个时候,当我们正在了解一些我们坦率地说还不知道的AI后果时,因为这些新出现的能力每周都在涌现。”
(全文结束)

