医疗领域影子AI使用现象普遍:调查显示
根据威科健康(Wolters Kluwer Health)本周四发布的调查,医疗工作者正在使用机构未批准的AI工具——这可能带来患者安全和数据隐私风险。
超过40%的医护人员和管理者表示知晓同事使用影子AI产品,而近20%的受访者报告称自己曾使用过未授权AI工具。威科健康首席医疗官彼得·博尼斯博士指出,这些未经机构审核的工具虽对个人工作者有用,但医疗系统尚未评估其风险或建立治理流程。“问题在于,这些工具的安全性如何?有效性如何?相关风险又是什么?”他强调,“使用者自身是否充分认识到这些问题?”
影子AI指员工使用公司未授权的AI产品,在各行业均可能引发严重安全风险。专家表示,由于其隐蔽性,组织管理者和IT团队无法了解工具使用情况,为网络攻击和数据泄露创造机会。
网络安全本就是医疗组织的挑战,网络犯罪分子常因该行业数据价值高且医疗交付责任重大而将其作为目标。博尼斯表示,医疗领域的风险更为严重:准确性问题令人担忧,AI工具可能提供误导性或错误信息,进而危害患者。调查显示,在500多名医院和医疗系统受访者中,约四分之一的医护人员和管理者将患者安全列为医疗AI相关首要关切。
博尼斯指出:“尽管初衷是让人类在某个环节介入,但这些工具仍存在多种‘失灵’可能,而这些错误在诊疗点可能无法被充分拦截。”
尽管如此,鉴于AI工具有望帮助处理海量数据、加速行政工作并协助医生记录诊疗信息,该技术已成为医疗领域最具吸引力的创新之一。威科健康自身也提供AI支持的临床决策支持产品。
调查显示,50%以上的管理者和45%的医护人员因工作流更快而使用未授权产品;近40%的管理者和27%的医护人员则因工具功能更优或缺乏批准产品而选择影子AI;另有超过25%的医护人员和10%的管理者将好奇心或实验精神列为使用原因。
许多医疗工作者并不了解所在机构的AI政策。调查显示,管理者比一线医护人员更可能参与AI政策制定,但29%的医护人员表示了解机构主要AI政策,而管理者比例为17%。
博尼斯解释,许多医护人员可能接触过与AI语音记录员相关的政策——这类工具可记录医患对话并生成临床记录,在医疗系统中已广泛采用。“这或许能解释他们为何声称了解政策,但可能并未完全掌握所有可视为AI政策的范畴。”
【全文结束】

