随着AI在各行各业掀起波澜,医疗行业也不例外。AI承诺带来更高效的工作流程、更好的患者结果和改进的决策制定。但我认为,只有当临床医生信任它时,AI才能真正有效。
最近几个月,医疗领域的AI受到了更严格的监管审查,许多政策制定者和行业领袖呼吁制定更明确的指南,以确保透明度、安全性和合规性。虽然这些政策讨论至关重要,但它们并没有回答医疗机构最关心的问题:负责任的AI采用在实践中是什么样的?
实际上,AI在医疗领域的成功或失败将取决于医院、卫生系统和后急性护理设施内部的情况。领导者必须确保他们采用的技术是透明、可信且与临床决策一致的。这还需要一个强大的治理基础——不是作为事后的补充,而是作为负责任实施的框架。
我一直被两件事所驱动:对技术的热情以及改善护理的深切愿望。在医疗和创新交叉点工作了30年后,我看到了将技术引入护理环境的潜力和实际挑战。为了让AI真正发挥作用,我认为从第一天起就必须负责任地进行治理。
那么,要让AI在医疗领域真正产生影响,需要什么呢?以下是领导者应重点关注的关键优先事项。
1. AI不能是一个黑盒子——它必须是透明的。
在最近的一次医疗领导峰会上,我听到的最大担忧之一是:“AI听起来很好,但我们如何实际使用它?”答案是:AI必须使临床医生的工作更轻松,而不是更困难。临床医生需要了解为什么AI会提出某个建议,以及它是如何得出这个结论的。
以预测分析为例,用于医院再入院风险评估。我的公司发现,最有效的模型不仅提供患者的再入院风险洞察,还提供了模型如何得出结论的透明度。如果没有这种清晰度,AI就会像一个黑盒子,这在医疗领域是不可接受的。
2. 解决“纸上的智能”问题。
AI采用的最大障碍之一不是技术本身,而是其依赖的碎片化数据。在许多医院和后急性护理设施中,患者数据仍然被困在纸质记录中,或者分散在不连通的系统中。
我经常在与医疗领导者的讨论中提到的一个简单现实是:你不能把智能放在纸上。但问题不仅仅是数字化。即使数据已经数字化,如果数据不一致、不完整或不在护理环境中共享,AI模型也无法生成有意义的见解。
不仅是结构化、标准化的数据对AI至关重要。非结构化数据,如护士笔记或从业者叙述,捕捉到的细微差别对于准确性至关重要,但在结构化格式中可能会被忽略。结合这两种类型的数据可以导致更准确的见解,正如我在我们公司的模型中看到的那样。没有这种级别的集成,AI看起来更像是猜测而不是智能。
3. 将AI策略与业务和临床目标对齐。
医疗领域的AI采用往往失败,因为它是在孤立的情况下实施的。在没有明确连接到患者护理和财务目标的情况下单独试点AI,会导致一些好想法无法扩展。
当AI被有效集成时,它可以通过早期风险检测减少可预防的住院治疗,通过促进实时数据共享来改善护理协调,并通过自动化耗时的行政任务来提高运营效率。
为了正确采用AI,我建议组织将其直接与财务和临床结果联系起来——这种心态可以起到决定性的作用。
4. 从第一天开始就将AI治理纳入过程。
治理确保AI被负责任、一致地使用,并符合监管和道德标准。但治理不应该成为障碍——它应该是信任和采用的推动者。
一个强大的AI治理框架应包括:
- 透明度要求,以确保AI生成的见解清晰且可操作(例如,ONC-HTI-1指南)
- 定期审计和性能监控,以防止偏见和意外后果
- 与行业最佳实践和监管要求(例如,HIPAA和不断发展的联邦和州监督)保持一致,以确保数据安全、合规性和互操作性
组织不必从零开始。诸如健康AI联盟(CHAI)和健康AI合作伙伴关系(HAIP)等倡议提供了负责任的AI采用指导,提供了框架和最佳实践,帮助医疗领导者建立与监管和道德标准一致的治理结构。(披露:我的公司加入了CHAI。)
医疗领域AI的未来取决于负责任的实施。
医疗领域的AI正在迅速发展,但有效的实施需要信任。我认为那些优先考虑透明度、结构化数据、战略对齐和治理的组织将能够充分利用AI的潜力,同时建立临床医生的信心。关键在于从一开始就建立坚实的基础并正确执行。
(全文结束)

