如今,AI项目的领导者可能面临压力,需要迅速交付结果以明确证明技术投资的回报。然而,具有影响力和变革性的AI采用方式需要一种战略性、有条不紊和有意图的方法。在这方面,没有人比纽约长老会医院(NYP)的人工智能运营医学总监Ashley Beecy博士更了解这些要求。NYP是世界上最大的医院之一,也是最负盛名的医疗研究机构之一。Beecy博士拥有IBM的电路工程背景、花旗的风险管理经验和心脏病学实践,她将技术和临床专业知识的独特结合带入她的角色中。她负责监督NYP临床系统中AI模型的治理、开发、评估和实施,确保它们负责任且有效地集成,以改善患者护理。
建立代理AI的基础设施
对于考虑2025年AI采用的企业,Beecy博士强调了AI采用策略必须具备的三个关键方面:良好的治理以确保负责任的AI开发、需求驱动的方法以及透明度作为信任的关键。
良好的治理以确保负责任的AI开发
Beecy博士表示,有效的治理是任何成功AI计划的支柱,确保模型不仅技术上健全,而且公平、有效和安全。AI领导者需要考虑整个解决方案的性能,包括其对业务、用户甚至社会的影响。为了确保组织衡量正确的结果,他们必须从一开始就明确定义成功指标。这些指标应直接与业务目标或临床结果相关联,但也需考虑意外后果,例如模型是否在强化偏见或导致操作效率低下。
基于她的经验,Beecy博士建议采用一个强大的治理框架,如HHS HTI-1提供的公平、适当、有效、有效和安全(FAVES)模型。一个充分的框架必须包括:1)偏见检测机制;2)公平性检查;3)要求解释性的治理政策。为了实施这样的框架,组织还必须拥有一个强大的MLOps管道,用于监控模型漂移,因为模型会随着新数据的更新而变化。
组建合适的团队和文化
第一步也是最关键的一步是组建一个多元化的团队,汇集技术专家、领域专家和最终用户。“这些群体必须从一开始就合作,共同迭代以完善项目范围,”她说。定期沟通可以弥合理解上的差距,使每个人都能与共享目标保持一致。例如,为了启动一个旨在更好地预测和预防心力衰竭(美国主要死因之一)的项目,Beecy博士组建了一个由20名临床心力衰竭专家和10名技术教员组成的团队。该团队在三个月内共同努力,定义重点领域并确保实际需求与技术能力之间的对齐。
Beecy博士还强调了领导层在定义项目方向中的重要作用:“AI领导者需要培养一种道德AI的文化。这意味着确保构建和部署模型的团队了解AI的潜在风险、偏见和伦理问题。这不仅仅是技术上的卓越,而是以一种有益于人们并符合组织价值观的方式使用AI。通过关注正确的指标并确保强有力的治理,组织可以构建既有效又道德的AI解决方案。”
需求驱动的方法和持续反馈
Beecy博士提倡从识别与核心业务或临床目标一致的高影响问题开始AI项目。关注解决实际问题,而不仅仅是展示技术。“关键是尽早让利益相关者参与对话,这样你就能利用AI解决实际、具体的问题,而不是追逐趋势,”她建议道。“确保有合适的数据、技术和资源来支持项目。一旦有了结果,扩大有效措施就更容易了。”灵活性调整课程也很重要。“在你的过程中建立一个反馈循环,”Beecy博士建议,“这确保了你的AI举措不是静态的,而是随着时间的推移继续发展,提供价值。”
透明度是信任的关键
要有效利用AI工具,必须赢得信任。“用户不仅需要知道AI是如何工作的,还需要知道它为什么做出某些决定,”Beecy博士强调。在开发一个预测住院患者跌倒风险的AI工具(每年影响美国100万患者)时,她的团队发现向护理人员传达算法的一些技术方面至关重要。
以下步骤有助于建立信任并鼓励采用跌倒风险预测工具:
- 开发教育模块:团队创建了一个全面的教育模块,以配合工具的推出。
- 使预测器透明:通过了解算法中最受重视的预测因素,护士可以更好地理解和信任AI工具的建议。
- 反馈和结果分享:通过分享工具整合如何影响患者护理(例如跌倒率的降低),护士看到了他们的努力和AI工具的有效性。
Beecy博士强调了AI教育的包容性。“确保设计和沟通对每个人都是可访问的,即使是对技术不太熟悉的人员。如果组织能做到这一点,更广泛的采用就更有可能实现。”
AI决策中的伦理考虑
Beecy博士方法的核心是认为AI应增强人类能力,而不是替代它们。“在医疗保健中,人类的关怀是不可替代的,”她断言。目标是增强医患互动,改善患者结果,减轻医疗工作者的行政负担。“AI可以帮助简化重复任务,改进决策,减少错误,”她指出,“但效率不应以牺牲人类元素为代价,尤其是在对用户生活有重大影响的决策中。AI应提供数据和见解,但最终决定应涉及人类决策者。”“这些决策需要一定程度的伦理和人类判断,”她补充道。
她还强调了投入足够开发时间以解决算法公平性的重要性。仅仅忽略种族、性别或其他敏感因素并不能确保公平的结果。例如,在开发产后抑郁症(影响七分之一母亲的危及生命的情况)的预测模型时,她的团队发现包括敏感的人口统计属性(如种族)可以带来更公平的结果。通过评估多个模型,她的团队了解到,简单地排除敏感变量(有时称为“无知的公平性”)并不总是足以实现公平的结果。即使敏感属性未被显式包含,其他变量也可能充当代理,从而导致隐藏但仍非常真实的差异。在某些情况下,如果不包括敏感变量,可能会发现模型未能考虑到医疗保健(或社会其他领域)中存在的结构性和社会不平等。无论哪种情况,都必须透明地说明数据的使用方式,并采取措施避免强化有害的刻板印象或延续系统性偏见。集成AI应伴随着对公平和正义的承诺。这意味着定期审计模型,让多元化的利益相关者参与过程,并确保这些模型所做的决策能改善所有人的结果,而不仅仅是部分人群。通过深思熟虑和有意图地评估偏见,企业可以创建真正更公平、更公正的AI系统。
慢慢来,稳赢
在快速采用AI的压力极大的时代,Beecy博士的建议提醒我们,慢慢来,稳赢。进入2025年及以后,战略性的、负责任的和有意图的企业AI采用方法对于长期成功至关重要。这包括对项目的公平性、安全性、有效性和透明度进行全面、主动的考虑,而不仅仅是其即时盈利能力。AI系统设计及其被授权做出的决策的后果必须从包括组织的员工和客户以及整个社会在内的多个角度进行考虑。
(全文结束)

