随着人工智能技术深度融入临床工作流程,医疗机构正为"安全部署"的AI工具划定更清晰的边界——并明确审批权责归属。
加利福尼亚州罗斯维尔复临健康系统首席医疗信息官埃拉·萨蒂博士表示,安全性不仅是技术层面的检查项,更是一种伦理立场。"AI的安全性不仅关乎准确性,更关乎责任归属,"萨蒂医生强调,"每项AI工具在部署前必须证明其临床可靠、操作稳定且算法透明,因为技术应增强而非取代人类判断。"
在各医疗机构中,平衡效率与监管、创新与审慎正成为负责任采用AI的试金石。加利福尼亚州欧文分校医疗中心首席医疗信息官迪普蒂·潘迪塔博士指出,该系统的治理框架围绕临床验证、偏见控制和透明度构建。任何待部署工具均需接受监管合规性、数据隐私及"真实世界表现"评估,由信息学、信息技术与临床专家组成的跨职能团队持续监测性能,确保AI"在不损害临床判断或患者安全的前提下提升医疗质量"。
部分机构正将审慎态度制度化。新泽西州帕拉默斯山谷医疗系统首席医疗信息官纳迪姆·艾哈迈德博士透露,该机构近期通过AI政策,要求供应商详细说明模型设计、偏见处理、重训练流程及"幻觉"风险。内部AI工作组据此进行风险评估并提供建议。"这使我们具备AI专项风险评估能力,同时尊重临床医生自主决策权——他们有权选择最符合患者需求的AI增强型产品,"艾哈迈德医生解释道。
区域性医疗机构同样实施管控措施。北卡罗来纳州罗利威克医疗中心首席医疗信息官尼尔·乔拉博士表示,医院会先在"积极参与的临床医生"中开展小规模试点再逐步推广。"我们系统评估收益、风险、错误、幻觉及偏见,"乔拉医生指出,"迄今为止,我们的AI应用始终在AI与患者之间设置人工审核环节——尚未部署任何无需人工干预即可直面患者的AI系统。"
部分领导者正通过风险分级防止实验性应用超越审慎原则。印第安纳州韦恩堡帕克维尤医疗中心首席医疗信息官马克·马布斯博士将工具分为高、中、低风险三级——"类似在临床应用前对创新进行分诊"。影响诊断或治疗的高风险系统需经多轮严格验证,而日程管理等低风险工具虽审核简化但仍受规范约束。"只有当AI工具证明其准确性、透明度,并确保临床医生牢牢掌握主导权时,才能获得批准,"马布斯医生强调。
洛杉矶使命社区医院首席医疗信息官杰森·拉·马尔卡博士认为安全始于应用目的:"选择任何工具——无论是AI还是其他技术——我必须明确其解决的具体问题。"这意味着追溯数据来源、通过循证医学验证模型,并确认临床医生能"接受、拒绝或修改"AI生成的建议。安全与数据保护不可妥协:"我们必须确保未经授权者无法识别任何患者数据,"他补充道。
医疗机构已不再质疑是否采用AI,而是聚焦如何建立信任。在这个关乎患者生命的领域,"安全部署"的内涵正超越代码安全——其本质是确保临床医生而非算法始终掌控医疗决策。
【全文结束】

