在过去的七天里,我的日程安排像一块拼布被子,涵盖了医疗保健行业的多个不同领域。无论是政府关于事先授权改革的圆桌会议,还是我与联合委员会(Joint Commission)首席执行官乔纳森·佩林博士的对话,透明度始终是一个共同的主题。
医疗机构和保险公司之间必须保持透明;医疗机构和保险公司也必须对患者透明。当然,医疗保健公司必须对其员工和客户保持透明——尤其是在部署人工智能(AI)时。
周一至周三,我的许多同事在加利福尼亚州阳光明媚的索诺玛参加了《新闻周刊》跨行业AI影响峰会。高级记者劳伦·吉拉和凯瑟琳·冯关注了医疗保健方面的议程,其中包括来自Kaiser Permanente、特殊外科医院、AdventHealth和UMass Medical的演讲者。
“透明度是医疗领域AI应用的一大主题——不仅是在处理病历和个人数据时,还包括组织为何以及如何实施自动化工具,”吉拉写道。
马萨诸塞大学医学院(UMass Medical)的ACMIO艾伦·张博士警告观众不要忽视员工对因AI而失去工作的担忧,他提到了去年加州护士协会的罢工。
“我们很多人都说我们不会被AI取代,我们希望相信这一点,但在医学界,我们不能仅仅靠这个来期望解决人们为何问这个问题的根本原因,”张博士在周二的医疗保健小组讨论中说道。
这些根本原因可能是什么?我在Wolters Kluwer Health发布的新生成式AI准备报告中找到了一些线索,该报告于本月初发布。他们对医疗保健利益相关者的调查显示,76%的人将“减少临床医生的职业倦怠”列为主要优先事项,85%的人表示“招聘/留住护理人员”是最关心的问题。
但只有45%的护士在被问及生成式AI是否可以减少临床医生的职业倦怠时表示肯定。
我请Wolters Kluwer Health的首席医疗官彼得·博尼斯博士帮助我理解这一差距——或者如他所说,“脱节”。
“我们的调查表明,有机会与辅助医疗专业人员和临床医生合作,深入了解他们的需求以及这些技术可以在哪些方面提供帮助;让他们参与决策委员会,同时他们自己也在学习这些工具的能力;选择这些工具以优化他们的工作流程,并在这个过程中拥有自主权,”他说。
我最近报道了很多与AI相关的“脱节”,包括医疗系统内部的AI部署努力和与供应商的外部沟通。我问博尼斯:这些失误是否表明我们在医疗保健行业中采取了错误的AI部署方法?
他告诉我,这不仅仅局限于医疗保健行业,每个企业都在应对类似的问题。(呼!)但他承认,医疗保健是一个高风险的游戏,重要的是要安全(并透明地)部署AI,以造福员工、患者护理和整体健康公平。
他认为,如果医疗系统专注于患者护理,并通过稳健的运营和成功的商业模式巩固这一基础,它们将会成功。
“这两个指令的融合创造了未来就绪的医疗系统,它知道如何使用这些先进技术来推进其运营——深思熟虑地这样做——然后有一个连贯的途径开始使用这些工具来推进这个更高风险的领域,”博尼斯说,“这就是我们所处的旅程。”
我还与联合委员会负责人佩林博士谈到了通往“连贯”AI路径的旅程。继续阅读脉搏检查部分,看看他说了什么。
乔纳森·佩林博士是联合委员会的总裁兼首席执行官。
如果你最近一直在关注新闻,你可能会有和我一样的问题:联合委员会到底发生了什么?
这个独立的医疗保健认证和认证组织最近启动了几项高调且高科技的合作。首先,它宣布与Palantir建立了长期合作关系,打算利用该公司的AI平台简化认证/认证过程。随后,它与**健康AI联盟(CHAI)**联手,建立了一套AI最佳实践手册和一个新的医院认证。
现在,如果你在一家医院工作,你很可能遵循联合委员会的标准。这就是为什么上周五我打电话给联合委员会总裁兼首席执行官乔纳森·佩林博士的原因。正如佩林所说,有一些“极客般的兴奋”。但大多数时候,我们讨论了最近的CHAI合作伙伴关系——以及它对质量/安全标准和医院认证可能意味着什么。
编者注:回答经过轻微编辑以调整长度和清晰度。
AI与其他用于评估质量的组件有很大不同。每个卫生系统都以独特的方式使用它,应用范围在医院、部门甚至患者群体之间各不相同。“好的AI”很难量化。你计划如何通过这个新的认证项目创建一个标准?
CHAI的职责真的是这项技术本身,而我们的职责是组织对这项技术负责任使用的治理过程。你可能已经看到了我们的负责任健康数据使用认证,它有六个属性,这其实是它的延伸。
我们预计——这还是正在进行中的工作——从负责任健康数据使用[认证]出发,会有去识别化或隐私的要求,这些可能是数据控制的安全措施。应该有一些机制向患者透明。最重要的是,会有一个监督或治理结构,解决算法或AI的表现问题。
其概念是,组织可以向CHAI和市场寻找AI工具,但它必须有一个积极且持续的治理过程,以审查该工具在其环境中的表现。 举个例子,我认为有三个基本组成部分。一个是技术层面:它在数学意义上是否有效和可靠?第二,它在临床上是否有效和可靠?它是否提供了正确的临床信息?第三,它在人口统计学意义上是否有效和可靠,例如,你不会把专门针对成人败血症检测训练的AI应用到儿童身上。
为了说明这一点,如果CHAI的职责确实是算法的外部表现和医疗保健之外的保证方面,那么我们做这个[新认证]的方式并不是特别针对AI工具的认证,而是针对组织自身对该AI工具负责任使用的治理和监督流程的认证。
这个认证将评估卫生系统内部开发的工具、部署的供应商工具,还是两者的结合?你们还会在每家医院的AI生态系统中查看什么内容?
我们预计,该认证将授予医疗机构,基于我描述的治理结构和监督结构。我们预计它将适用于自研技术和现成技术。
我们的重点是持续治理。让我举一个更贴近家庭的例子。我们刚刚完成了[我家]的装修,在工作完成后进行了电气检查。房子的线路不会随着时间改变,但AI的“线路”,如果重新训练,如果漂移等,可能会随时间变化——因此组织需要有一种机制定期审查其“电气系统”的性能,用这个类比来说,不仅是初始阶段,而且是定期审查,或者坦率地说,是该技术使用寿命期间的审查。
对于正在建立其AI治理结构的卫生系统,你有什么建议,以确保他们在联合委员会和CHAI认证之前走在正确的道路上?
看看我们的负责任健康数据使用认证,因为它确实提供了关于治理概念的见解,因为监管框架正在出现。尽管设备和药品批准是静态的,但他们认为使用设备(好结果或坏结果)是使用这些设备的临床医生和医疗保健组织的责任。
组织可以独立设置他们认为负责治理和监督的最佳实践。我自己来自运营和大型系统,拥有一个外部验证的标准集非常重要,这些标准展示了负责任治理和监督的“良好”是什么样子。 我认为像我们这样的组织对这种潜力感到非常兴奋,但我们希望制定共同标准,以确保我们负责任地实现这一潜力。
(全文结束)

