医疗保健领域如何应对人工智能(AI)数据中的公平性问题,这一风险和伦理考量已在阿德莱德的一次健康会议上由一位国际专家进行了概述。
英国伯明翰大学监管科学与创新中心主任阿拉斯泰尔·丹尼斯顿教授表示,问题在于存在一个公平性差距。丹尼斯顿在南澳大利亚阿德莱德举行的2024年澳大利亚健康与医学科学院(AAHMS)年度会议上的主题演讲中指出:“我们越来越多地意识到公平性差距和AI偏见,这在头条新闻中屡见不鲜。但对医疗保健来说,这具体是什么样的?证据怎么说?”
丹尼斯顿描述了健康数据贫困的问题,即“个人、群体或人口由于缺乏代表性的数据而无法从数据驱动的发现和创新中受益。”他指出:“偏见可以在AI的任何阶段出现,从概念和优先级设定到部署后。”
“我们特别关注一个领域——数据考虑。目前用于开发AI的数据集或公开可用的数据集,这些数据集的多样性较差,仅代表世界的一部分,通常是较富裕的部分。”他补充道:“我们不仅可能拥有无法充分代表我们多样化人口的数据集,甚至我们都不知道这些数据集中有哪些人群。”
“你可能会假设它主要代表多数人口,但实际上很难特意查看未被充分代表的群体是否存在,以及算法在大多数人群中的表现如何。”
丹尼斯顿强调了一项大型研究,该研究发现,一个广泛使用的预测急性肾损伤的算法在男性中表现良好,但在女性中表现显著较差。另一项大型研究发现,一个用于预测医疗需求并因此提供医疗保健访问的算法严重不利于黑人美国人。“如果我们大规模推广,基本上就是在放大社会中的偏见。”他说。
为了应对这一问题,2021年启动了一项倡议,旨在制定数据多样性和包容性标准,以及AI的泛化能力标准。STANDING Together是一个合作伙伴关系,参与方主要来自英国、美国、加拿大、澳大利亚和世界卫生组织。这些专业人士代表了30多个学术、监管、政策、行业和慈善组织,制定了针对数据集构建者和数据集用户的建议。
“我们的重点始终是透明度。我们并不是试图假装可以做到完美。”丹尼斯顿说,“但如果我们追求透明度,人们就可以做出选择。我们可以看到,好吧,我们将使用这个数据集进行这项应用,但我们也要认识到这些限制,并在解释的边缘和限制上小心谨慎。”
丹尼斯顿表示,自发布以来,这些标准已被广泛采用。“事实上,第一个正式采纳这些标准的监管机构是在澳大利亚的治疗用品管理局。”他说。
(全文结束)

