Netskope的一份新报告指责医疗工作者通过定期尝试将敏感和受监管的数据上传到未经批准的位置(包括生成式AI聊天机器人如ChatGPT和Gemini),使公司面临风险。
该报告揭示了未经批准工具使用的程度,96%的受访者使用了利用用户数据进行训练的应用程序。除了使用未经批准的生成式AI工具外,许多违规行为还源于上传到个人OneDrive或Google Drive云存储账户。
数据显示,81%的所有数据隐私违规行为涉及受监管的医疗数据,如HIPAA保护的信息,而19%涉及密码、源代码或知识产权。超过三分之二的医疗行业生成式AI用户承认在工作时使用个人AI账户发送敏感数据,这可能反映了他们对混乱的监管和延迟流程的不满。
Netskope指出,“这种行为阻碍了安全团队对其员工生成式AI相关活动的可见性。”
“医疗组织必须平衡生成式AI的好处,并部署安全和数据保护措施以减轻这些风险。”Netskope威胁实验室云威胁研究员Gianpietro Cutolo解释道。
展望未来,研究呼吁更快地部署组织批准的生成式AI应用程序,以减少影子AI的使用——这一趋势已经开始放缓,从去年的87%降至今年的71%。
数据丢失防护(DLP)政策也是监控和控制访问生成式AI应用程序的有效策略,现在超过一半(54%)的组织正在使用DLP政策,而去年这一比例为31%。
Cutolo总结道:“医疗组织正在取得进展,但继续关注安全的企业批准解决方案将是确保数据在这个不断变化的环境中得到保护的关键。”
(全文结束)

