许多医疗保健领导者已经不再质疑人工智能(AI)是否应该进入其组织。AI已经在影响临床工作流程、收入周期操作和患者参与。潜力是真实的,风险也同样真实。
随着AI使用的扩展,讨论的重点已从采用转向执行。问题不再是是否使用AI,而是如何负责任地使用,以保护隐私、支持临床医生并改善患者治疗效果。
医疗保健中的风险更高
医疗保健中的AI与零售或营销中的AI不同。当算法影响临床决策或标记患者进行随访时,它可能影响护理。这提高了对监督和问责的期望。
例如,一个帮助确定出院后随访患者优先级的模型在试点中可能看起来有效。但一旦扩展,领导者需要知道它是否在各服务线和患者群体中表现一致,如何融入护理管理工作流程,以及当结果不明确时谁负责。
如果没有明确的防护措施,组织可能会遇到与数据隐私、不透明决策或意外偏见相关的问题。即使在测试中表现良好的工具,一旦嵌入日常工作中也可能产生摩擦。良好的治理不是为了拖慢团队。它是为了避免可预防的意外,并在过程早期做出更好的决策。
实践中的AI治理是什么样子
AI治理不必复杂,但必须是有意为之的。它始于所有权。对如何评估、批准和监控AI工具的明确责任至关重要。在这方面做得好的组织将临床领导者、信息技术(IT)、合规和运营团队聚集在一起,而不是将AI视为独立的技术计划。实践中,有效的AI治理计划通常包括:
- 数据质量和谱系:如果基础数据不可靠或理解不足,结果也会如此。
- 终端用户透明度:临床医生不需要理解每一行代码,但他们应该知道工具的设计目的、使用的数据以及通常在哪里遇到困难。
- 偏见和公平性监测:如果没有人在寻找,模型可能会强化差异。
- 持续性能监控:AI不是"设置后忘记"的投资。模型会变化,数据会演变,性能可能会漂移,因此治理应包括定期检查,以确认工具仍在按预期运行。
促进创新,而非阻碍它
我经常听到的一个担忧是治理会拖慢团队。通常,情况恰恰相反。当组织对AI的审查和部署设定结构时,它减少了不确定性。团队了解流程,明白期望,并能更有信心地前进。它还可以建立与临床医生的信任,并随着时间推移与患者建立信任。最挣扎的组织通常是那些在AI已经广泛使用后才尝试重新设计治理的组织,这是一条更难走的路。
领导层定调
这不能完全委托给IT或数据科学团队。执行领导层和董事会需要参与,不是在技术细节上,而是在设定优先级和期望上。定义问题是关键。我喜欢称之为"爱上问题"。不要追逐最新的工具。要问:我们试图用AI解决什么问题?我们在哪里愿意承担风险,哪里不愿意?我们将如何衡量成功?这些领导层问题塑造了接下来的发展,并影响组织可能从AI投资中获得的价值。
接下来会发生什么
AI使用在医疗保健领域继续扩大,随之而来的是监管机构的更多关注以及患者和临床医生的更多审查。及早建立治理的组织可能更有能力负责任地扩展、管理风险并建立对这些工具使用方式的信心。
在扩展过程中,集中的治理检查或AI算法影响评估可以帮助将意图转化为日常执行:确认谁拥有关键决策权,如何监控模型的漂移和偏见,以及在实际工作流程中"良好"是什么样子。归根结底,AI不是故事;为患者提供更好的护理和更好的体验才是。治理有助于将焦点保持在那里。
【全文结束】

