医疗AI中的人机协同需要经验丰富的IT领导者
一家咨询公司CEO表示,目标不是对个别临床决策进行微观管理,而是塑造如何在规模上治理和信任技术。
在当前医疗保健领域人工智能的迅猛发展中,"人机协同"作为防止未经检查的AI错误或幻觉导致严重后果的安全保障,已成为热议话题。
Healthcare IT Leaders咨询公司的首席执行官Ben Hilmes对"人机协同"概念有其独特见解。他在医疗保健和技术领域拥有超过三十年的经验,在现任职位之前,他曾担任Adventist Health的高级副总裁兼首席整合官,负责监督这家跨州医疗系统的IT、数据分析和临床信息学工作。
协同循环需要经验丰富的领导者
Hilmes坚持认为,不仅需要有人在循环中,还需要经验丰富的领导者留在循环中,以负责任地引导AI计划并维持信任。
"让经验丰富的医疗IT领导者参与循环,与传统的人机协同方法之间存在根本区别,这对负责任的AI部署至关重要,"他解释道。"虽然人机协同通常描述一种交易性保障措施——例如,由人员审查个别输出以进行即时纠正——但经验丰富的医疗IT领导者扮演着更具战略性和全面性的角色。
"这些经验丰富的领导者对监管要求和临床环境有着深刻理解,远远超出了简单的输出验证,"他继续说道。"他们的参与确保AI系统的设计和监控从临床质量、患者安全和组织文化的全局视角出发。
"最终,这种领导力确保技术安全、战略性和可信度——使临床医生能够专注于最重要的时刻,而不是被技术摩擦所困扰,"他补充道。
建立框架体系
"医疗IT领导者的目标不是对个别AI决策进行微观管理,而是塑造如何在规模上治理和信任技术,"他说。"这包括建立定义适当用例的框架,设定明确的责任结构,以及创建捕捉实际临床影响的反馈机制。
"这些领导者认识到,AI并非孤立运行——它存在于一个人、流程和技术必须和谐运作的复杂生态系统中,"他继续说道。"通过维持这一高层级循环,领导者确保AI服务于系统目标,而不会破坏护理的基本工作流程。"
Hilmes表示,随着医疗组织越来越多地依赖AI进行临床决策支持、运营优化和患者参与,在规模上建立信任至关重要。
"许多医疗提供者目前对AI系统缺乏信任,通常不是因为技术本身有缺陷,而是因为治理和透明度未能跟上部署步伐,"他指出。"经验丰富的医疗IT领导者通过确保AI系统经过严格的临床验证,并让临床医生理解这些工具的能力和局限性,来弥合这一差距。
"这种领导力为可持续的AI采用奠定了基础,既提供可衡量的价值,同时保护定义优质医疗关键时刻的人际联系和临床专业知识,"他补充道。
深入组织的领导者指引方向
Hilmes认为,只有当数字系统由理解机构特定需求的深入领导者指导时,才能发挥最大价值。
"只有当数字系统由深入组织独特工作流程和文化的领导者指导时,才能实现其全部价值,"他解释道。"医疗保健交付本质上是本地化和个性化的。它受到特定患者人口统计、社区需求和临床医生偏好的塑造,以及专业知识、遗留流程、监管环境和设施的物理限制。
"在一个环境中蓬勃发展的系统,如果未能考虑这些本地现实,可能会在另一个环境中造成重大干扰,"他继续说道。"深入领导者充当技术能力与组织需求之间的必要翻译者。他们确保企业技术被调整以支持一线护理,而不是强迫临床团队去适应严格的技术限制。"
因为他接近前线运营,这些领导者拥有深入的情境知识,他补充道。
领导者真正了解地形
"他们了解临床医生使用的非正式变通方法、特定流程背后的历史原因,以及推动或阻碍技术采用的文化因素,"Hilmes说。"这种细致入微的见解使他们能够预见实施障碍,并确定能建立动力的快速胜利。
"例如,他们知道哪些医生倡导者能最好地影响他们的同行,哪些工作流程在没有重大支持的情况下过于脆弱而无法改变,"他继续说道。"这种理解水平是远离日常运营的领导者无法达到的,但正是快速临床环境中保护关键时刻所必需的。"
Hilmes补充说,随着医疗组织面临日益增加的财务和运营压力,深入领导者的角色变得更加关键。
"他们确保数字投资带来切实回报,不仅体现在数据点上,还体现在改善的结果和增强的员工满意度上,"他说。"如果没有这种领导力,组织可能会部署无法发挥潜力的复杂技术,因为它不符合护理交付的现实。
"通过将技术与设施的特定需求保持一致,深入领导者使员工能够专注于他们的患者,确保每一次数字转型都支持医疗保健核心的人际联系,"他总结道。
【全文结束】

