要点
根据威科医疗(Wolters Kluwer Health)周四发布的调查,医疗保健工作者正在使用其组织未批准的人工智能工具——这可能构成患者安全和数据隐私风险。
信息服务业与软件企业威科医疗的调查显示,超过40%的医疗工作者和管理者表示知晓同事使用“影子人工智能”(shadow AI)产品,而近20%的从业人员报告称自己曾使用过未经授权的AI工具。
威科医疗首席医疗官彼得·博尼斯博士(Dr. Peter Bonis)指出,这些未经批准的工具虽对个别工作者具实用价值,但其所属医疗系统尚未评估产品风险或建立治理流程。“关键问题在于:这些工具的安全性如何?有效性如何?相关风险又是什么?”他强调,“用户自身是否充分认知这些风险?”
深度分析
专家表示,当员工使用企业未授权的AI产品时,“影子人工智能”可能在各行业引发严重安全威胁。因其隐秘特性,组织管理者及IT团队无法监控工具使用方式,为网络攻击与数据泄露创造可乘之机。
医疗保健机构本就面临严峻网络安全挑战,因网络犯罪分子常以该行业为攻击目标——其存储的高价值患者数据与医疗服务的高风险属性形成双重诱因。
博尼斯博士特别指出,医疗场景中的风险尤为突出:AI工具可能输出误导性或不准确信息,直接危害患者安全。调查显示,在逾500名医院及医疗系统受访者中,约四分之一的医疗服务提供者与管理者将患者安全列为AI应用的首要关切。
“即使设计初衷包含人工干预环节,这些工具仍可能出错,而护理现场往往无法及时拦截错误,”博尼斯警示道。
尽管如此,鉴于AI在筛选海量数据、加速行政流程及辅助诊疗记录与医学信息检索方面的潜力,该技术已成为医疗保健领域最具突破性的创新方向。威科医疗的调查(该公司亦提供AI支持的临床决策辅助产品)显示,部分工作者正转向“影子AI”实现上述目标。
超半数管理者(52%)与近半护理提供者(45%)表示使用未授权产品源于其提升工作效率;近四成管理者(40%)与逾四分之一提供者(27%)则因工具功能更优或缺乏获批替代方案而采用;另有超四分之一提供者(25%)及一成管理者(10%)将好奇心与实验精神列为使用动机。
值得注意的是,多数医疗工作者对组织AI政策认知匮乏。调查显示,管理者较一线医护人员更深度参与政策制定,但仅29%的提供者知晓机构核心AI政策,管理者比例亦仅17%。博尼斯分析,许多医护人员可能接触过与AI记录员相关的政策——此类工具通过记录医患对话自动生成临床报告,已在医疗系统广泛部署。“这或是他们自认了解政策的原因,但其认知很可能未覆盖全部AI治理范畴,”他总结道。
【全文结束】

