AI治理的挑战:个人数据保护的福音与隐患The Challenge of AI Governance: The Blessing and the Curse of Safeguarding Personal Data

环球医讯 / AI与医疗健康来源:www.law.com美国 - 英语2024-10-03 02:00:00 - 阅读时长10分钟 - 4613字
本文探讨了AI在个人数据保护中的双重角色,包括其在网络安全和医疗保健领域的应用及其带来的风险与挑战。
AI治理个人数据保护网络安全勒索软件医疗保健行业互操作性AI风险挑战员工懈怠数据泄露
AI治理的挑战:个人数据保护的福音与隐患

在当今的数字环境中,人工智能(AI)既可以作为个人数据的守护者,也可能成为威胁。AI技术有望提升安全性和效率,但生成式AI的普及也带来了独特的挑战,可能危及敏感的个人数据。不出所料,麦肯锡2024年7月的技术趋势展望将生成式AI列为15个显著趋势之首,从2022年到2023年,Google搜索量激增了近700%,应用AI和工业化机器学习也被提及,但数字信任和网络安全紧随其后。本文探讨了AI在个人数据保护中的双刃剑效应:1)网络安全和勒索软件威胁;2)AI如何通过创新解决方案提高数据保护;3)AI和互操作性;4)AI在保护个人数据方面的风险、挑战和积极面;最后,5)创建一种理解这些风险并探索缓解方法的文化的重要性。

一、问题:从网络威胁到勒索软件

2024年8月29日,多个政府机构联合发布了一项网络安全咨询,警告RansomHub自2024年2月成立以来已加密并窃取了超过210个各行各业实体的数据。损失的全部程度仍在评估中。虽然许多类型的组织都受到了影响,但医疗保健行业面临着独特的挑战,这源于对数字连接的需求,使该行业成为网络犯罪分子的目标。Change Healthcare的高调攻击突显了为什么医疗保健行业是网络犯罪分子最有利可图的目标之一,这源于医疗保健运营的关键性质以及数据在暗网上的价值——无论是因为医疗保健组织愿意支付赎金,还是因为数据本身的价值。

卫生与公众服务部(HHS)特别致力于改善医疗保健行业的网络安全,这源于2015年《网络安全法》第405(d)节设立的网络安全工作组的不懈努力。通过405(d)计划,医疗保健部门协调委员会网络安全工作组继续协助开发工具,确保医疗保健和公共卫生部门能够应对新的和不断演变的网络威胁。7月,HHS宣布将重组部门内的角色和职能,将网络安全、技术、数据和AI政策和战略的监督从国家卫生信息技术协调员办公室和战略准备与响应助理部长办公室转移到新成立的技术和政策助理部长办公室/国家卫生信息技术协调员办公室(ASTP/ONC)。此次重组将使HHS能够专注于持续监控、检测、追踪和减轻网络威胁对医疗保健组织的影响。

在8月的联合咨询中,HHS与联邦调查局(FBI)、网络安全和基础设施安全局(CISA)以及多州信息共享和分析中心(MS-ISAC)合作,鼓励网络防御者实施以下建议,以减少勒索软件事件的可能性并减轻其影响:

  • 实施恢复计划,维护并保留多份敏感或专有数据的副本;
  • 要求带有密码登录的账户遵守国家标准与技术研究所(NIST)关于制定和管理密码政策的标准;
  • 保持操作系统、软件和固件的更新;
  • 要求对管理员账户进行抗钓鱼的多因素认证;
  • 分段网络以防止勒索软件的传播;
  • 使用网络监控工具识别、检测和调查异常活动和潜在的勒索软件传播路径;
  • 在所有主机上安装、定期更新并启用实时检测功能的防病毒软件;
  • 审查域控制器、服务器、工作站和活动目录中的新和/或地下账户。

二、解决方案:AI作为个人数据的守护者

AI能否帮助保护个人数据?2024年4月,云安全联盟的一项调查显示,AI已经在改变网络安全,67%的受访者表示他们已经测试了AI用于网络安全的目的,超过一半的人计划在未来一年内采用AI解决方案。AI可以通过使用复杂的算法来显著增强个人数据的安全性,这些算法能够识别和减轻潜在威胁。以下是AI如何保护个人数据的一些例子:

  • 异常检测:AI系统使用机器学习算法实时分析大量数据,检测可能表明数据泄露的异常模式。这些数据集揭示了定义正常行为的模式,表明“一切正常”。任何显著偏离都被视为异常,表明可能存在问题。例如,不符合用户过去行为的信用卡交易被视为异常。在网络安全中,异常流量模式可能表明入侵尝试。
  • 预测分析:通过利用历史数据,AI可以在威胁发生之前预测潜在的安全威胁。例如,IBM的Watson被用于分析来自多个来源的数据,包括社交媒体和之前的网络事件,以预测可能的漏洞并指导预防措施。Watson现在作为watsonx.ai平台面向商业市场。
  • 行为分析:AI可以监控用户行为,识别某人是否超出了其正常活动范围,这可能表明账户已被入侵。通过标记这些异常,组织可以立即采取行动,确保受影响账户的安全,防止进一步损害。

其他AI在数据保护中的创新

随着组织应对数据保护的复杂性,出现了几种创新的AI驱动方法:

  • 合成数据生成:为了缓解使用敏感个人数据的风险,合成数据生成作为一种保护个人数据的方法越来越受到关注。正如Mostly AI所解释的,合成数据是由训练于“真实世界”数据的生成式AI模型创建的。生成的合成数据类似于原始数据,但不包含任何个人信息。这种合成数据可用于训练AI模型、测试系统或研究,而不会暴露敏感细节。尽管合成数据提供了一种替代方案,但在适当的数据存储和传输中使用加密技术、匿名化和去标识化和/或差异隐私仍然是充分保护隐私的关键。CGI博客指出,通过使用合成数据,“组织和研究人员可以在不承担使用机密和/或敏感的真实数据所带来的风险和限制的情况下,进行广泛的分析并开发AI模型。”
  • AI驱动的访问控制:AI应用程序可以根据当前的威胁评估和用户上下文强制执行严格的访问控制,确保个人数据仅对需要它的人可用。例如,Okta等平台利用机器学习动态调整安全和认证策略,考虑用户的活动和环境。
  • 实时数据保护监控:公司正在使用AI工具持续监控数据流,以实时识别漏洞。这些应用程序可以提醒组织潜在的数据泄露或未经授权的访问尝试,允许立即采取响应措施。

三、互操作性问题

自2009年的HITECH法案授权将财务激励与符合条件的医院和提供商采用认证电子健康IT挂钩以来,HHS一直在努力改善健康数据的电子交换。互操作性的目标是打破数据孤岛。尽管乍一看可能会危及数据隐私,但互操作性将为标准化健康数据、提高其准确性和确保数据及时更新提供基础。正是在这个数据层的基础上,可以设计出可信的机器学习工具和AI,例如加速诊断时间和准确治疗的见解。生成式AI技术可以加速创新并推动新发现,同时保持医疗和生命科学数据的安全和私密。互操作性不仅有助于患者获得服务,还可以通过大型学习模型提供有意义的数据输入,使患者能够在与提供者的接触之外参与健康活动,从而避免昂贵的住院治疗。更高的互操作性还意味着,当记录被错误更改时,这种更改将容易被识别。在AI出现之前,我们就认识到,开发一个互操作的国家健康信息网络还可以帮助减少医疗欺诈——利用异常模式识别、系统审计、实践模式监控等功能。互操作性可以提供一个平台来实施实时反欺诈控制的原则仍然有效。我们的工作被引用,例如,在医疗保险和医疗补助服务中心2020年的最终规则中,涉及医疗保险优势组织和医疗补助管理护理计划、州医疗补助机构、CHIP机构和CHIP管理护理实体、联邦促进交易所的合格健康计划发行者和医疗保健提供者的互操作性和患者访问。2024年,Kenneth D. Mandl、Daniel Gottlieb和Joshua C. Mandel在《自然》杂志上撰文指出:“生成式人工智能的出现增加了对高质量、当前医疗数据的需求。”“将AI整合到医疗保健中将需要多样化的电子健康信息,这些信息可以由EHR轻松提取,供行业、学术界和政府的创新者开发模型。”

四、AI的风险和挑战

员工错误和懈怠

尽管AI具有优势,但它可能会无意中在员工中培养一种懈怠感——通常被称为“自动化无聊”。随着员工逐渐依赖AI系统,他们可能会放松警惕,导致无意的数据泄露和漏洞。人员可能会过度依赖自动化系统,不再质疑AI的决策或协议。这种懈怠可能导致员工在未经验证是否合适或必要的情况下,无意中分享个人信息。此外,与AI的常规互动可能导致员工忽视数据安全的最佳实践,如定期更新密码或验证请求者的身份。Verizon 2024年数据泄露调查报告指出,“大约三分之一的泄露事件涉及勒索软件或其他某种敲诈手段”;“68%的泄露事件涉及人为因素”,“28%的泄露事件涉及错误”,这“证实了我们的怀疑,即错误比媒体或传统的事件响应驱动的偏见所暗示的更为普遍。”Solutions Review也指出,人为因素是一把双刃剑——对组织的网络防御至关重要,但也是其防御中的薄弱环节。

网络犯罪分子也使用AI

网络犯罪分子经常利用人们的信任实施钓鱼计划和社会工程攻击。例如,他们可能会冒充合法的AI系统,诱使员工在虚假前提下提供敏感信息。加州拟议的SB 1047,《前沿人工智能模型的安全和创新法案》,于8月底在州议会通过,认识到犯罪元素,指出“如果不适当地受人类控制,未来的人工智能发展也可能被用于创造新的公共安全和安全威胁,包括制造和扩散大规模杀伤性武器,如生物、化学和核武器,以及具有网络进攻能力的武器。”因此,该立法要求涵盖模型的开发者遵守某些要求,包括能够迅速全面关闭的能力和实施书面的、独立的安全和安全协议。然而,SB 1047未能通过州长,其他人尚未感到恐慌。“从我们的角度来看,威胁行为者可能正在试验并试图找到解决他们问题的生成式AI解决方案,”Verizon报告称。“但真的看不出即将取得突破,或者这种攻击侧优化是否会出现在事件响应方面。唯一的例外是深度伪造技术的明显进步,这已经导致了大量的欺诈和虚假信息报道。”

五、更多积极面

当然,加州立法承认AI的好处:“包括生成式人工智能在内的新进展,有可能催化创新并加速为加州人和加州经济带来广泛利益的发展,包括医学、野火预测和预防、气候科学的进步,以及推动人类创造力和能力的边界。”在联邦层面,法案继续提交给参议院和众议院——从授权主任识别挑战并为人工智能研究和开发颁发竞争性奖金的法案(H.R. 9475)到指示国家标准与技术研究所评估与AI系统相关的新兴实践和规范(H.R. 9466)——包括透明度、安全、安全、隐私、可靠性、问责制等方面。尽管无疑会有调整、修订、成功和失败——披露AI系统开发中使用的安全实践本身是否会构成威胁?——紧跟最新发展将是至关重要的。最近,2024年9月,西奈山卫生系统和IBM研究宣布了一项研究,旨在利用AI进展,通过临床数据、智能手机数据和认知测试的行为数据来预测结果,如治疗中断、住院和急诊室就诊,特别是针对寻求心理健康评估和治疗的年轻人。该研究邀请患者录制临床访问的音频和视频,以评估“患者和临床医生的口头语言、眼神接触和面部表情”——这引发了一些有趣的问题。假设数据不含有关心理健康预测的歧视或偏见的危险,AI从微笑或冷笑中能检测到什么,可能帮助年轻人呢?

结论

AI在数据保护中的进步呈现出一个悖论——虽然它是一个强大的工具,可以保护个人数据,但同时也引入了必须谨慎管理的风险。组织必须在利用AI的优势的同时,保持警惕,防止员工懈怠和自动化系统的滥用。通过采用创新的AI驱动解决方案并培养员工强烈的数据安全意识文化,企业可以有效地利用AI保护个人数据,将可能的诅咒转变为持久的福音。

Frances Green 是Epstein Becker Green纽约办公室的顾问律师,Karen Mandelbaum 是该事务所华盛顿特区办公室的高级顾问。本文由Epstein Becker Green的工作人员律师Ann W. Parks 协助撰写。


(全文结束)

大健康

猜你喜欢

  • 癌症中心成立癌症人工智能联盟,利用癌症数据和应用人工智能解锁发现、变革医疗癌症中心成立癌症人工智能联盟,利用癌症数据和应用人工智能解锁发现、变革医疗
  • 美国卫生与公众服务部最终确定2024-2030年联邦健康信息技术战略美国卫生与公众服务部最终确定2024-2030年联邦健康信息技术战略
  • AI能否改善肥胖护理?AI能否改善肥胖护理?
  • 新的AI框架在医学影像分析中达到临床专家水平的准确性新的AI框架在医学影像分析中达到临床专家水平的准确性
  • 首届峰会探索人工智能首届峰会探索人工智能
  • 借助AI平台改变健康管理方式借助AI平台改变健康管理方式
  • 在 HIMSS24 亚太区,分析成熟度采用模型焕然一新在 HIMSS24 亚太区,分析成熟度采用模型焕然一新
  • AI模型识别现有药物用于罕见疾病治疗AI模型识别现有药物用于罕见疾病治疗
  • 三一团队借助新数据平台“探寻”医疗创新三一团队借助新数据平台“探寻”医疗创新
  • 当AI技术与HIPAA发生碰撞当AI技术与HIPAA发生碰撞
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康