除了传统的影子IT外,影子AI可能会使医疗机构面临患者数据泄露和合规问题的风险。
作者:Jill McKeon(副编辑)
发布日期:2025年9月24日
影子IT是指业务部门在没有组织IT部门支持或知情的情况下采用的软件或硬件。如果不加以控制,影子IT会使组织面临安全风险。随着AI在医疗保健和其他行业中的采用率增加,一种新的风险已经出现:影子AI。未能向IT团队通报新的AI工具可能导致治理差距、功能问题和法律纠纷,同时增加数据泄露的风险。
IBM数据安全副总裁Vishal Kamat表示:"影子AI特别危险的原因在于它的隐蔽性和自主性。这些工具可以在没有明确可追溯性或治理的情况下学习、适应并生成输出。对安全领导者来说,挑战不仅仅是识别这些违规工具,还要了解它们如何与敏感工作流程和数据交互。"
了解影子AI的风险可以帮助医疗机构避免常见陷阱,并确保AI工具在适当的监督下实施。
深入剖析影子AI的安全和隐私风险
影子IT是各地IT团队面临的问题,医疗保健领域也不例外。根据企业医疗保健运营软件公司symplr在2025年进行的一项调查,86%的IT高管报告称其医疗系统中存在影子IT现象,高于2024年的81%。
Kamat表示:"影子IT的常见情况通常源于员工试图更高效地工作或更快地协作。这些情况包括使用个人云存储、未经授权的即时通讯应用程序或未经审核的项目管理平台,这些平台虽然在组织批准的生态系统之外,但仍处理敏感数据或通信。"
影子IT的驱动力是改善工作流程的愿望,但它往往反而造成干扰。影子AI也是如此。
Kamat补充道:"影子AI引入了更深层次的风险。员工可能会在企业云环境中部署开源大型语言模型(LLM),在没有监督的情况下使用AI代码助手,或将机密患者数据上传到公共生成式AI平台。这些行为不仅绕过了安全控制,还使组织面临数据泄露、模型滥用和违规的风险。"
IBM 2025年《数据泄露成本》报告——其中医疗保健行业连续14年被评为数据泄露成本最高的行业——探讨了影子AI日益增长的普遍性。报告显示,在所有行业的受访组织中,有20%因涉及影子AI的安全事件而遭受数据泄露。这一数字比涉及授权AI的安全事件高出7个百分点。
此外,IBM发现,影子AI使用水平较高的组织报告的泄露成本更高,为全球平均泄露成本增加了20万美元。影子AI取代了安全技能短缺,成为三大成本最高的泄露因素之一。
Kamat表示:"即使是出于善意尝试使用未经批准的工具,也可能引发严重的安全和合规风险,尤其是在医疗保健领域,患者数据泄露、诊断中的算法偏见以及违反HIPAA(健康保险可携性和责任法案)法规可能会产生危及生命的后果。"
如果没有适当的防护措施,员工可能会无意中通过使用未经批准的工具暴露受保护健康信息(PHI),导致数据隐私违规。IBM的报告揭示,在影子AI事件中,客户个人身份信息是最受威胁的数据类型。此外,在40%的跟踪影子AI事件中,知识产权受到了侵犯。
Kamat补充道:"核心问题是可见性:当安全团队不了解正在使用的AI工具时,他们实际上被蒙住了眼睛。他们无法评估风险、执行政策或确保问责。在医疗保健领域,这种不可见性尤其危险,因为它意味着敏感的患者数据可能被未经验证的模型处理,临床决策可能受到未经验证的算法影响,合规违规可能在为时已晚之前都未被发现。"
预防影子AI的实用策略
实施AI工具可以帮助医疗机构更高效地工作,改变提供者工作流程,甚至加速收入周期过程。然而,谨慎实施是实现AI在医疗保健中全部效益并避免影子AI实例的关键。
Kamat强调:"要管理影子IT和影子AI日益增长的风险,医疗保健安全领导者必须从可见性开始。这意味着部署能够持续检测未经授权的应用程序、AI使用和数据流的工具,特别是涉及敏感患者信息的数据流。"
Kamat表示,一旦识别出未经授权的工具,就应该对其进行风险评估,并纳入正式审查流程以确保合规。
他补充道:"沟通同样至关重要。仅仅拥有批准的AI工具或政策是不够的。员工必须了解它们并知道如何负责任地使用它们。如果没有持续的沟通,即使是设计良好的政策也可能被绕过或忽视。"
IBM报告中包括的各行业60%以上的组织表示,他们没有制定管理AI或检测影子AI的治理政策。实施适当的AI访问控制并定期审计以检测未经批准的AI使用,可以帮助组织降低数据泄露风险并保持符合隐私和安全法规的要求。
Kamat说:"毕竟,在医疗保健领域,影子AI不仅仅是一项技术风险,它还是一项合规和患者安全威胁。在HIPAA等严格法规和日益增长的公众监督下,积极的治理不仅是满足监管要求的必要条件,也是维持患者信任的关键。"
Jill McKeon自2021年以来一直报道医疗保健网络安全和隐私新闻。
【全文结束】

