一项重要的新研究探讨了在医疗保健中使用AI所固有的偏见问题,并提出了增加透明度的建议。这项名为“STANDING Together(数据多样性、包容性和泛化性的标准)”的研究发表在《柳叶刀数字健康》和《NEJM AI》上,涉及来自58个国家的350多名专家。STANDING Together由伯明翰大学医院NHS基金会信托和伯明翰大学的研究人员领导。
新的建议旨在确保用于训练和测试医疗AI系统的数据集能够代表技术将应用于的所有人群。这是因为当某些群体在数据集中未得到充分代表时,AI系统往往表现不佳。少数群体尤其容易在数据集中被低估,因此可能受到AI偏见的不成比例影响。
“数据就像一面镜子,反映出现实,”首席研究员、伯明翰大学AI和数字健康技术副教授刘晓博士说,“当数据失真时,它会放大社会偏见。但试图通过修复数据来解决问题,就像试图擦掉镜子上的污渍来去除衬衫上的污渍一样。”
为了在健康公平方面创造持久的变化,我们必须关注修复源头,而不仅仅是表面现象。
报告中提出的建议包括:
- 鼓励使用适当且能全面代表社会所有群体(包括少数群体和服务不足群体)的医疗数据集开发医疗AI;
- 帮助发布医疗数据集的任何人识别数据中的任何偏见或局限性;
- 使开发医疗AI技术的人能够评估数据集是否适合他们的目的;
- 定义如何测试AI技术,以确定它们是否存在偏见,从而在某些人群中表现不佳。
“拥有透明且具代表性的数据集对于支持AI的负责任和公平发展及使用至关重要,”NHS英格兰AI副主管多米尼克·库什南表示。“随着我们充分利用AI工具的潜力,STANDING Together的建议非常及时,NHS AI实验室全力支持采用这些实践以减轻AI偏见。”
(全文结束)

