患者将能够更好地受益于医疗人工智能(AI)创新,前提是遵循一套新的国际认可建议。
一项在《柳叶刀数字健康》和《NEJM AI》上发表的新建议旨在帮助改进用于构建医疗AI技术的数据集的使用方式,减少潜在的AI偏见风险。
创新的医疗AI技术可能改善患者的诊断和治疗,但一些研究表明,医疗AI可能存在偏见,这意味着它对某些人有效,而对另一些人则不然。这可能导致某些个体和社区被“抛在后面”,甚至在使用这些技术时受到伤害。
一个名为“STANDING Together(数据多样性、包容性和泛化性的标准)”的国际倡议已经发布了这些建议,该研究涉及来自58个国家的350多名专家。这些建议旨在确保医疗AI对每个人都是安全有效的。它们涵盖了可能导致AI偏见的许多因素,包括:
- 鼓励医疗AI使用适当且能充分代表社会各个群体(包括少数群体和服务不足群体)的医疗数据集进行开发;
- 帮助发布医疗数据集的任何人识别数据中的任何偏见或局限性;
- 使开发医疗AI技术的人能够评估数据集是否适合他们的目的;
- 定义如何测试AI技术,以确定其是否存在偏见,从而在某些人群中表现不佳。
伯明翰大学AI和数字健康技术副教授、该研究的首席研究员刘潇博士表示:“数据就像一面镜子,反映了现实。当数据失真时,它会放大社会偏见。但试图通过修复数据来解决问题,就像擦拭镜子以去除衬衫上的污渍一样。”
为了在健康公平方面实现持久的改变,我们必须专注于修复源头,而不仅仅是表面现象。
STANDING Together由英国伯明翰大学医院NHS基金会信托和伯明翰大学的研究人员领导。该研究与全球30多个机构的合作者共同开展,包括大学、监管机构(英国、美国、加拿大和澳大利亚)、患者团体和慈善机构,以及大小健康技术公司。这项工作得到了健康基金会和NHS AI实验室的资金支持,并得到了国家卫生和护理研究所(NIHR)的支持,后者是NHS、公共卫生和社会护理的研究合作伙伴。
除了这些建议本身外,STANDING Together的患者代表还在《自然医学》上发表了一篇评论,强调公众参与塑造医疗AI研究的重要性。
世界卫生组织首席科学家杰里米·法拉爵士表示:“确保我们拥有多样、可访问且具有代表性的数据集,以支持AI的负责任开发和测试是一项全球优先事项。STANDING Together的建议是确保健康领域AI公平性的重要一步。”
NHS英格兰AI副主管多米尼克·卡什南表示:“拥有透明且具代表性的数据集对于支持AI的负责任和公平开发及使用至关重要。随着我们利用AI工具的令人兴奋的潜力,STANDING Together的建议非常及时,NHS AI实验室全力支持采纳其实践,以减轻AI偏见。”
这些建议已于今日(2024年12月18日)发布,并可通过《柳叶刀数字健康》免费获取。
这些建议可能特别有助于监管机构、健康和护理政策组织、资助机构、伦理审查委员会、大学和政府部门。
(全文结束)

