一项关于AI在医疗中固有偏见的重要新研究提出了增加透明度的建议。这项名为“STANDING Together(数据多样性、包容性和泛化性的标准)”的研究发表在《柳叶刀数字健康》和《NEJM AI》上,涉及来自58个国家的350多名专家。STANDING Together由伯明翰大学医院NHS基金会信托和伯明翰大学的研究人员领导。
新的建议旨在确保用于训练和测试医疗AI系统的数据集能够代表技术将要服务的所有人群的全面多样性。这是因为AI系统通常在未充分代表的数据集中表现不佳。少数群体的人尤其容易在数据集中被低估,因此可能受到AI偏见的不成比例影响。
“数据就像一面镜子,反映了现实,”首席研究员、伯明翰大学AI和数字健康技术副教授刘晓博士说,“当数据失真时,它会放大社会偏见。但试图通过修正数据来解决问题,就像试图擦掉镜子上的污渍来清除衬衫上的污渍一样。”
为了在健康公平方面创造持久的改变,我们必须专注于修复源头,而不仅仅是表面现象。”
报告中提出的建议包括:
- 鼓励使用适当且能全面代表社会所有成员(包括少数群体和服务不足群体)的医疗数据集开发医疗AI。
- 帮助发布医疗数据集的任何人识别数据中的任何偏见或局限性。
- 使开发医疗AI技术的人能够评估数据集是否适合其目的。
- 定义如何测试AI技术,以确定它们是否存在偏见,从而在某些人群中表现不佳。
“我们必须拥有透明且具有代表性的数据集,以支持负责任和公平的AI开发和使用,”NHS英格兰AI副主管多米尼克·库什南说,“随着我们充分利用AI工具的潜力,STANDING Together的建议非常及时,NHS AI实验室全力支持采纳这些实践以减轻AI偏见。”
(全文结束)

