澳大利亚最大的放射科服务提供商I-MED最近被《Crikey》报道,其在未经患者明确同意的情况下,向一家人工智能公司提供了去标识化的患者数据。这些数据包括X光片和CT扫描图像,用于训练人工智能系统。
这一行为引发了澳大利亚信息专员办公室的调查。此前,I-MED曾发生过一次患者记录泄露事件,涉及自2006年以来的数据。据报道,愤怒的患者正在避免使用I-MED的服务。
I-MED的隐私政策确实提到会与“经澳大利亚法律授权的研究机构”共享数据。然而,只有20%的澳大利亚人会阅读并理解隐私政策,因此这些披露令一些患者感到震惊。
那么,I-MED是如何与其他公司共享患者数据的?我们又如何确保患者能够选择其医疗数据的未来用途?
关键参与者是谁?
许多人都曾在I-MED进行过扫描检查:这是一家在澳大利亚拥有超过200家放射科诊所的私人公司。这些诊所提供医学影像服务,如X光和CT扫描,以帮助诊断疾病和指导治疗。
2019年,I-MED与人工智能初创公司Harrison.ai合作,共同成立了Annalise.ai,旨在开发用于放射学的人工智能技术。I-MED的诊所是最早采用Annalise.ai系统的机构之一。
I-MED一直在收购其他公司,并计划以40亿澳元的价格出售。巨大的商业利益牵涉其中,许多患者可能受到影响。
为什么人工智能公司想要你的医学影像?
人工智能公司需要你的X光片和CT扫描图像,因为它们需要用大量数据来“训练”其模型。“训练”人工智能系统意味着让其接触大量图像,以便“学习”识别模式并提出可能的问题。
这意味着数据对于人工智能初创公司和大型科技公司来说具有极高的价值,因为人工智能在某种程度上是由数据构成的。
你可能会认为这是一个无法无天的领域,但事实并非如此。澳大利亚有多重机制控制你的健康相关数据的使用。其中一个层面是澳大利亚的隐私立法。
隐私立法怎么说?
I-MED提供的图像是《澳大利亚隐私法》中定义的“敏感信息”,因为这些图像可以识别个人。
法律规定,组织在超出原始目的(在这种情况下,为你提供医疗服务)的情况下披露此类信息的情况有限制。一种情况是个人已给予同意,而这似乎不是本案的情况。
另一种情况是个人“合理预期”到披露,且披露的目的与收集的目的直接相关。根据现有事实,这种情况也显得不太可能。
这留下了一种可能性,即I-MED依赖于“为了公共健康或公共安全相关的研究或统计编制和分析”而进行的披露,这种情况下获取个人同意是不切实际的。
这两家公司公开表示,这些扫描图像已经进行了去标识化处理。
去标识化信息大多不在《隐私法》的管辖范围内。如果重新识别的可能性非常低,去标识化信息可以在法律风险较低的情况下使用。
然而,去标识化是一个复杂的过程,具体情况也很重要。至少有一位专家建议,这些扫描图像并未充分去标识化,因此不应脱离法律保护。
对《隐私法》的修改加强了对侵犯隐私行为的处罚,尽管澳大利亚信息专员办公室资金不足,执法仍面临挑战。
我们的数据还有哪些保护措施?
澳大利亚有多个层面管理健康相关数据。我们将考虑其中两个层面。
组织应有数据治理框架,明确规定谁负责,以及如何操作。
一些大型公共机构拥有非常成熟的数据治理框架,但这并不是普遍现象。2023年,研究人员指出澳大利亚迫切需要一个全国性的系统,以使这一过程更加一致。
澳大利亚还有数百个人类研究伦理委员会(HRECs)。所有研究在开始前都应获得此类委员会的批准。这些委员会根据《人类研究伦理行为准则》评估研究申请的质量、潜在益处和风险、公平性以及对参与者的尊重。
但澳大利亚国家卫生和医学研究委员会认识到,人类研究伦理委员会需要更多支持,特别是评估人工智能研究的质量、低风险和潜在益处方面。
伦理委员会如何运作?
人类研究伦理委员会决定研究中需要何种类型的同意。
已发表的Annalise.ai研究已获得批准,有时是从多个人类研究伦理委员会获得的,包括“豁免同意”的批准。这意味着什么?
传统上,研究涉及“选择加入”同意:个别参与者在研究开始前给予或拒绝参与的同意。
但在人工智能研究中,研究人员通常希望获得使用现有大规模数据湖中部分数据的权限。
进行此类研究的研究人员通常会请求“豁免同意”:即在没有明确同意的情况下使用数据。在澳大利亚,这只能由人类研究伦理委员会在特定条件下批准,包括风险低、益处大于风险、隐私和保密得到保护、“获取同意不切实际”以及“没有已知或可能的原因认为参与者不会同意”。这些问题并不总是容易确定的。
豁免同意听起来可能不尊重个人,但它承认了一个困难的权衡。如果研究人员向20万人请求使用旧医疗记录进行研究的许可,大多数人不会回应。最终样本将很小且有偏差,研究质量较差,甚至可能毫无用处。
因此,人们正在研究替代模式。一个例子是“治理同意”,即在社区合作下建立治理结构,然后要求个人同意其数据在未来用于任何经这些结构批准的目的。
倾听消费者的声音
我们在人工智能研究伦理的十字路口。政策制定者和澳大利亚人都认为,我们需要使用高质量的澳大利亚数据来构建主权健康人工智能能力,以及适用于所有澳大利亚人的健康人工智能系统。
但I-MED的案例表明了两点。首先,必须与澳大利亚社区就何时以及如何使用健康数据来构建人工智能进行沟通。其次,澳大利亚必须迅速加强和支持现有的基础设施,以更好地治理人工智能研究,赢得澳大利亚人的信任。
(全文结束)

