患者将能够更好地从医疗人工智能(AI)创新中受益,如果遵循一套新的国际认可的建议。
一套新的建议已发表在《柳叶刀数字健康》和《新英格兰医学杂志AI》上,旨在帮助改进用于构建人工智能(AI)健康技术的数据集的使用方式,减少潜在的AI偏见风险。
创新的医疗AI技术可能改善患者的诊断和治疗,但一些研究表明,医疗AI可能存在偏见,这意味着它对某些人有效,而对另一些人则不然。这意味着当这些技术被使用时,某些个体和社区可能会被“落下”,甚至可能受到伤害。
一个名为“STANDING Together(数据多样性、包容性和泛化性的标准)”的国际倡议已经发布了这些建议,作为一项涉及来自58个国家的350多名专家的研究的一部分。这些建议旨在确保医疗AI可以对每个人都是安全有效的。它们涵盖了可能导致AI偏见的许多因素,包括:
- 鼓励使用适当且代表社会所有群体(包括少数群体和服务不足的群体)的医疗保健数据集来开发医疗AI;
- 帮助发布医疗保健数据集的任何人识别数据中的任何偏见或局限性;
- 使开发医疗AI技术的人能够评估数据集是否适合他们的目的;
- 定义如何测试AI技术以识别其是否偏见,从而在某些人身上表现不佳。
伯明翰大学AI和数字健康技术副教授、该研究的首席研究员刘晓博士表示:
“数据就像一面镜子,反映了现实。当扭曲时,数据会放大社会偏见。但试图通过修复数据来解决问题就像擦镜子以去除衬衫上的污渍。”
“要实现健康公平的持久变化,我们必须专注于修复源头,而不仅仅是反映。”
“STANDING Together”建议旨在确保用于训练和测试医疗AI系统的数据集代表技术将用于的所有人群。这是因为AI系统通常对未充分代表在数据集中的人群效果较差。少数群体的人特别容易在数据集中被低估,因此可能不成比例地受到AI偏见的影响。还提供了指导,以识别在使用医疗AI系统时可能受到伤害的人,从而降低这种风险。
“STANDING Together”由英国伯明翰大学医院NHS基金会信托基金和伯明翰大学的研究人员领导。这项研究与来自全球30多个机构的合作方共同进行,包括大学、监管机构(英国、美国、加拿大和澳大利亚)、患者团体和慈善机构,以及小型和大型医疗技术公司。这项工作得到了健康基金会和NHS AI实验室的资金支持,并得到了国家卫生和护理研究所(NIHR)的支持,后者是NHS、公共卫生和社会护理的研究合作伙伴。
除了这些建议本身外,一篇由“STANDING Together”患者代表撰写的评论文章发表在《自然医学》上,强调了公众参与塑造医疗AI研究的重要性。
世界卫生组织首席科学家杰里米·法拉尔爵士表示:
“确保我们拥有多样化、可访问和代表性数据集以支持AI的负责任开发和测试是一项全球优先事项。‘STANDING Together’建议是确保健康领域AI公平的重要一步。”
这些建议于今天(2024年12月18日)发布,并可通过《柳叶刀数字健康》免费获取。
这些建议可能特别有助于监管机构、健康和护理政策组织、资助机构、伦理审查委员会、大学和政府部门。
参考文献: Alderman JE, Palmer J, Laws E, et al. 应对算法偏见并促进健康数据集透明度:STANDING Together 共识建议. Lancet Digit Health. 2024. doi: 10.1016/S2589-7500(24)00224-3
(全文结束)

