电子健康记录(EHRs)中发现的种族和族裔数据不准确性可能会对患者护理产生负面影响,尤其是在人工智能(AI)越来越多地融入医疗保健领域的情况下。由于医院和提供者在收集此类数据时缺乏一致性,并且难以准确分类个别患者,基于这些数据集训练的AI系统可能会继承并延续种族偏见。
在《PLOS Digital Health》杂志上发表的一篇新文章中,生物伦理学和法律专家呼吁立即标准化种族和族裔数据的收集方法,并要求开发者保证医疗AI系统中的种族和族裔数据质量。该研究综合了关于为什么EHRs中的患者种族数据可能不准确的担忧,确定了医疗系统和医疗AI研究人员改进数据准确性的最佳实践,并为医疗AI开发者提供了一个透明地保证其种族和族裔数据质量的新模板。
主要作者Alexandra Tsalidis指出:“如果AI开发者听从我们的建议,披露他们的种族和族裔数据是如何收集的,他们不仅将推进医疗AI的透明度,还将帮助患者和监管机构批判性地评估由此产生的医疗器械的安全性。就像营养标签告知消费者他们摄入的食物一样,这些免责声明可以揭示用于训练AI医疗工具的数据的质量和来源。”
资深作者Francis Shen补充说:“随着技术越来越多地融入医疗保健领域,AI模型中的种族偏见是一个巨大的问题。本文提供了一种具体的方法来解决这些问题。”
尽管还需要做更多的工作,但这篇文章提供了一个起点。合著者Lakshmi Bharadwaj表示:“关于最佳实践的公开对话是一个至关重要的步骤,我们建议的方法可能会带来显著的改进。”
这项研究得到了NIH Bridge to Artificial Intelligence(Bridge2AI)项目的支持,并获得了NIH BRAIN Neuroethics拨款(R01MH134144)。
(全文结束)

