随着数据驱动技术的不断发展,医疗保健正站在一个重要的十字路口。私人健康数据在推动研究和个性化医疗方面发挥着关键作用,因为它使研究人员能够识别模式和见解,从而在疾病治疗方面取得重大突破。然而,管理这些敏感数据需要仔细考虑。
在某些司法管辖区,研究人员可以获得未来未指定研究的同意,而在其他地区,个人数据在使用前会被去标识化。虽然这些方法可以保护隐私,但有时会通过移除关键上下文而限制洞察的深度。数据泄露的风险是一个现实的担忧。敏感的健康信息可能会被买卖,导致开发出可能暴露个人或造成意外后果的模型。医疗保健行业在隐私、法律合规和数据安全方面面临着独特的挑战。在创新与隐私、公众信任和公平之间找到平衡,对于释放数据驱动医疗保健的全部潜力并改善患者结果和运营效率至关重要。
本文探讨了医疗保健中AI的采用情况,并从两家医疗保健初创公司那里获得了关于如何在监管不确定性和缺乏数据共享标准的情况下应对最敏感个人信息风险的观点。是否可以在保持患者隐私和信任的同时实现数据驱动创新?
德文·辛格(Devin Singh)是加拿大健康科技初创公司Hero AI的创始人兼首席执行官,该公司提供先进的临床自动化解决方案,为医疗系统提供AI驱动的工具,以改善患者护理和效率。达斯汀·奥戴尔(Dustin O'Dell)是美国初创公司SymetryML的联合创始人兼首席执行官,该公司创建了一个尖端的联邦AI平台,该平台允许数据协作和分析,而无需移动数据,从而增强医疗保健和生命科学公司对敏感患者数据的利用。
当前AI医疗保健的状态:潜力与现实
根据Statista的数据,在采用AI的顶级行业中,医疗保健排名第三,全球采用率为6%,相比之下,技术和金融行业的采用率分别为63.7%和10.4%。尽管这一百分比与其他一些行业相比似乎较低,但根据Vention的数据,医疗保健正在看到显著的AI集成和影响:
- 2023年,全球AI医疗市场价值196.8亿美元
- 2023年,机器人辅助手术占据了市场的24.5%
- 预计到2025年,90%的医院将使用AI技术进行早期诊断和远程监测
在美国,今年约有10%的医疗保健组织受访者报告称,他们的组织处于生成式AI的中期采用阶段,而14%的受访者表示,他们的组织处于早期采用阶段,已有一个解决方案在生产环境中作为面向客户或任务关键系统的运行。在加拿大,根据加拿大统计局的数据,未来一年内,不同行业的AI软件采用计划各不相同。显示最高采用可能性的行业包括:专业、科学和技术服务(26.6%),信息和文化产业(24.3%)以及金融和保险(12.9%)。虽然最近没有关于加拿大医疗保健行业AI采用状态的统计数据,但DIGITAL——加拿大全球创新集群——在2024年5月宣布投资2600万加元用于AI驱动的医疗保健项目,这表明加拿大对推进AI驱动解决方案的医疗保健领域有重大承诺。这些投资针对关键领域,如改善农村地区的医疗保健访问、加速临床试验、增强医学影像和诊断能力、优化患者护理流程以及开发用于远程医疗和患者联系中心的AI驱动平台。
德文·辛格解释说,法规对医疗保健中的AI创新产生了双重影响:“一方面,法规限制了医院分享数据和使用数据的能力,从而抑制了医疗保健中的AI创新;另一方面,缺乏法规也抑制了创新。医疗保健机构天生谨慎,需要在整合任何新技术、药物或治疗方法进入标准治疗实践之前建立明确的协议和保障措施。”辛格继续说道:“如果没有明确的规则来证明某项技术符合护理标准,那么医院就会面临法律责任。AI模型非常复杂,通常在一个机构中表现良好,但在另一个机构中表现不佳,特别是当上下文信息经常记录在自由文本笔记中时。”
为了在医疗保健中广泛采用AI,辛格强调,机构需要明确的法规来定义必要的检查和保障措施,以确保模型在广泛使用时的安全性,以及在其特定机构内的安全性。
电子健康记录(EHR)集成挑战:隐私法、市场主导地位和反垄断问题
电子健康记录(EHR)旨在使医疗保健更高效,并为AI解决方案提供有用的数据。辛格讨论了允许不同EHR平台协同工作的系统的重要性,如HL7、FHIR和SMART。然而,辛格指出了一些减缓进展的关键挑战:“医疗保健领导者正在努力应对过时的隐私法,这些法律使AI的使用处于法律灰色地带,增加了感知风险。”他强调需要更新的法律,明确解释如何使用AI,以便医疗保健组织在创新的同时保持合规。
EHR与其他系统的集成也是一个挑战。“从EHR获取数据通常很困难,不仅对第三方解决方案如此,对医院也是如此,”辛格补充道,指出诸如昂贵的API费用和因EHR软件更新引起的反复出现的数据质量问题等问题,这些都给试图通过AI改善患者护理的医疗保健组织带来了显著的成本。尽管辛格承认像HL7、FHIR和SMART这样的系统具有潜力,但他警告说,随着主要EHR公司的市场主导地位,它们对AI部署的影响将面临更大的审查。
据HCI Innovation报道,Particle Health,一家医疗数据集成平台,最近对Epic Systems Corporation提起了一起联邦反垄断诉讼,指控Epic利用其在电子健康记录(EHR)市场的主导地位来扼杀竞争。该诉讼声称,Epic控制了超过75%的美国人口的EHR,并试图将其主导地位扩展到新兴的支付者平台市场。Particle Health指责Epic采取“多触角策略”试图压制Particle……在过去六个月中,Epic切断了Particle客户的访问权限,提出了现已被驳回的投诉,并通过煽动毫无根据的安全担忧来压垮Particle的支持运营。
医疗保健障碍:数据孤岛、惰性、既有玩家主导和创新困境
AI解决方案经常面临数据可用性不足的挑战。正如Symetry的达斯汀·奥戴尔指出的那样,“数据往往存在于孤岛中,严格的隐私法阻碍了编译特定患者群体的大规模、高质量数据集所需的协作。”此外,许多公司难以处理非标准化和“杂乱”的数据。奥戴尔强调,“评估、清理和准备数据以进行AI或ML驱动的分析需要大量的手动工作。”
奥戴尔还提到,大型医疗保健组织在创新方面常常遇到障碍,因为它们不愿意打破现状,尤其是在考虑推动边界的AI项目时。这是典型的“创新者的困境”。对于AI技术提供商来说,奥戴尔确定了几个关键挑战:“公司仍在努力弄清楚如何利用AI,这首先需要他们了解自己的数据和业务问题,因此他们行动非常缓慢,甚至根本不行动。”既定玩家的主导地位也是一个重大障碍,奥戴尔观察到,“大多数公司首先会倾向于通常的嫌疑人来测试和学习AI,这使得初创公司在突破和规模化方面面临困难。”
信息过载是另一个问题,奥戴尔描述了“AI噪音”,这使得“很难理清谁在做什么,为什么一个解决方案与其他解决方案有何不同或更好。”最后,他警告不要过度承诺,指出AI公司经常通过设定不切实际的期望来损害自己的前景,这导致客户失望,经常导致项目放弃或延迟。
AI驱动的医疗保健:提升患者结果同时保护隐私
辛格表示,患者始终会表达他们对更短等待时间、更快诊断和更精确治疗的需求。然而,在医疗保健中实施AI解决方案需要在这些需求和隐私问题之间找到平衡,同时还需要个性化的护理。他的公司正在通过使用AI来提高患者护理质量而不损害隐私来应对这一挑战。正如他解释的那样,“Hero AI通过实施实时AI系统来自动化患者护理交付的某些方面,同时保护可识别的数据,帮助医院满足这些需求。”
他举了一个来自加拿大多伦多的病童医院(SickKids)的例子——全球排名第二的儿科医院和健康AI的领导者——Hero AI平台加快了经历急性精神健康危机的儿童的护理。通过利用分诊数据来识别何时需要心理支持,该系统在患者到达急诊部门后的几分钟内自动进行咨询。这一创新将许多患者的等待时间减少了50%以上,显著缩短了他们在急诊部门的停留时间,并释放了容量。
此外,Hero AI引入了自动安全警报,用于面临长时间等待的手术患者,这导致某些患者的诊断测试订购时间减少了30%。辛格强调,数据访问仅限于患者护理圈内的医疗保健提供者,以“确保数据不会不必要的暴露。”他补充说,所有数据均安全加密,仅用于预期目的。重要的是,医院拥有通过平台开发的任何新机器学习模型的所有权。辛格致力于确保高度敏感的信息保持安全,他表示:“这种方法尊重生成训练数据的提供者和患者的亲身经历,同时提供有影响力的、保护隐私的临床自动化解决方案。所有数据均由医院拥有,并在传输和存储时严格保护,防止未经授权的访问。”
辛格还强调了Hero AI与SickKids在负责任地采用AI方面的合作努力:“当AI开始自主影响护理时,知情同意将是关键,透明度也是必不可少的。Hero AI和SickKids通过深入的患者参与和共同设计实现了这一点。”他引用了SickKids的急诊医生兼专家设计方法学家Sasha Litwin博士,强调确保“技术是公平、可访问的,并由最终用户告知”的重要性。这对于确保患者理解和同意AI如何影响他们的护理至关重要。
针对偏见模型带来的限制,辛格指出需要透明度,他说:“患者和提供者需要明确了解AI解决方案是否在与我们的患者基础在人口统计学和医学上代表性的群体中进行了验证,以及该解决方案是否能为他们表现良好。”
通过联邦学习实现隐私保护的数据共享
由于严格的隐私法,医疗保健组织在跨边境共享和分析患者数据时面临重大障碍。在加拿大,健康信息保管人(HIC)是指拥有或控制个人健康信息的组织。这些可以包括医院、药房、医疗实践和养老院,所有这些都受《个人健康信息保护法》(PHIPA)的管辖。该法律规定了HIC何时可以收集、使用和披露个人健康信息(PHI)。通常情况下,医生只有在患者同意的情况下才能访问PHI,未经授权的访问是严格禁止的。患者还可以要求限制谁可以访问他们的PHI,保管人必须向受影响的个人、信息和隐私专员和/或监管机构报告某些隐私泄露事件。
在美国,相应的立法是《健康保险流通与责任法案》(HIPAA),该法案规定了保护个人健康信息的要求。在各个司法管辖区,严格遵守访问、控制和披露PHI的规定是相似的。
联邦学习(FL)是一种分散的机器学习方法,其中模型在多个设备或服务器上进行训练,而无需共享原始数据,从而增强隐私和安全。奥戴尔解释了Symetry ML如何发展其FL解决方案以解决现有差距,他说:“我们的隐私保护解决方案在全球范围内虚拟统一了患者数据,使其可用于按需分析,而数据从未离开其来源点。”与传统的联邦学习不同,后者在本地训练模型然后将模型权重共享到中央服务器,奥戴尔表示:“SymetryML开发了一种方法,该方法创建本地数据的安全数学抽象,仅共享这些抽象,通过内置的分析工具包进行强大的分析和推理。”这种方法使合作伙伴能够以保护隐私的方式共享其底层数据,提供了数据治理、数据泄露预防、可扩展性和性能等方面的关键优势。他补充说,他们的解决方案符合HIPAA和GDPR法规,已通过第三方审计验证。
奥戴尔说明了他们解决方案的有效性:“我们正在与一家排名前五的制药公司及其研究合作伙伴合作,帮助他们连接全球患者数据以增强分析。有价值的数据存储在不同国家的不同位置,由于严格的隐私法,无法共享或合并。我们的解决方案提供了一种新的合作方式,使他们能够访问更多患者数据,这对推进研究至关重要。”
他认为,现有的行业限制阻碍了高效的数据共享和分析,同时保持隐私,这对关键研究产生负面影响。Symetry解决了这一挑战,使医疗保健组织能够在维护严格隐私标准的同时利用更大的数据集进行研究。
奥戴尔指出,传统联邦学习方法的局限性可能会引发对整体模型效能的担忧,特别是当某个利益相关者的模型准确性受到质疑时。他解释说,传统联邦学习“通常会在本地模型上过度拟合数据,优化中央模型既复杂又有限。”相比之下,他们的新版本在分析上表现得好像所有各方都能访问相同的数据分布,因为它共享数学抽象而不是模型权重。他补充说:“我们提供独立或合作进行分析或构建模型的能力,使每个方都能确保其模型高度准确,同时选择保持私密性。”
扰动不会等待医疗保健行业
数据创新与隐私在医疗保健领域的交汇点带来了巨大的希望,但也揭示了一个陷入惰性并抗拒扰动的行业。AI和数据共享的进步可以显著改善患者护理并扩大医疗保健能力。然而,这种进步必须伴随着保护敏感健康信息和维护患者信任的坚定承诺。围绕监管框架、知情同意和AI技术公平获取的持续对话至关重要。透明度和合作是当前的重点,以实现创新与合规之间的平衡,但必须与人工智能的速度保持同步。
(全文结束)