人工智能正在迅速进入医疗保健领域,但成功使用这些工具往往说起来容易做起来难。一个主要障碍是临床医生可能不信任人工智能,这增加了工作量和成本,并损害了患者体验。
在贝克尔第16届年度会议上,一群医疗保健高管讨论了人工智能信任和部署挑战,以及克服这些障碍的最佳实践。
题为"可信赖的临床AI:面向决策支持的CXO框架"的会议嘉宾包括:
- Gregg Nicandri博士,罗切斯特大学医学中心(纽约州罗切斯特)首席数字与创新官
- Gil Padula博士,圣伊丽莎白医院和扬斯敦市场(俄亥俄州扬斯敦)首席医疗官兼病例管理市场医疗总监,博恩修道会仁慈健康组织
- Harpreet Pall博士,哈肯萨克梅里迪安泽西海岸大学医学中心(新泽西州尼普顿城)和K. Hovnanian儿童医院(新泽西州尼普顿镇)首席医疗官;哈肯萨克(新泽西州)梅里迪安医学院儿科教授
- Roy Ziegelstein博士,DynaMed主编兼首席医疗官
以下是会议的三个关键要点:
1. 不可信赖的人工智能工具会造成实际的临床和财务成本
当临床医生不信任他们需要使用的AI工具时,结果是额外的"灰色工作"——即验证AI生成信息和进行修正所需的时间和压力。
虽然AI预期能提高生产力,但当临床医生不信任它时,反而会降低生产力,导致职业倦怠并增加成本。同时,如果遵循了错误的建议,患者的健康可能会受到危害。
Ziegelstein博士指出,AI工具可能提供与患者无关的信息,或基于无证据的专家意见。"当临床决策支持模型无视证据而专注于专家意见时,患者会得到糟糕的护理,这代价高昂。患者可能会接受不必要的检查和程序,"他说。
2. 治理是建立对AI工具信心的关键
治理有多种形式。首先且最重要的是,可信赖的AI驱动医疗保健工具必须有人参与。这些人员必须是临床决策支持和循证医学的专家。
此外,AI工具供应商和医疗机构都需要由临床医生、法律顾问、安全专家、信息专家和数据隐私专家组成的独立AI咨询委员会。
Pall博士表示,治理的工作流程方面也非常重要。"如果工具不适合工作流程,与临床团队正在做的事情无关,就会破坏信任,"他说。"这些工具会被忽视,你会回到原点。"
3. 要部署可信赖的临床AI,临床医生的参与至关重要
小组成员强调了采用由医生为医生和患者治理和设计的AI工具的重要性。
向临床医生明确说明采用AI要解决的问题也很关键。最佳实践是在决策过程中及早让临床医生参与。"我想要能够增强医患关系的解决方案,这样医生可以有更丰富的时间投入到医学艺术中,"Padula博士指出。"这是一个重要的决定因素。"
虽然出于害怕错过的心理可能会急于部署AI,但最初放慢速度通常能让组织最终更快地应用AI。"确保你从经验中学习,并以能够更快、更可靠地做大事的方式建立系统,通过建立原则和流程,"Nicandri博士说。
【全文结束】

