'偏见输入,偏见输出':耶鲁大学研究揭示医疗AI中的偏见'Bias in, bias out': Study identifies bias in medical AI

环球医讯 / AI与医疗健康来源:medicalxpress.com美国 - 英语2024-11-26 00:00:00 - 阅读时长2分钟 - 817字
耶鲁大学研究人员分析了医疗AI开发各阶段的偏见来源及其对临床结果的影响,并提供了缓解策略。
耶鲁大学医疗AI偏见健康不平等临床结果缓解策略训练数据模型开发PLOS数字健康
'偏见输入,偏见输出':耶鲁大学研究揭示医疗AI中的偏见

在一项新的综述中,耶鲁大学的研究人员深入分析了AI开发不同阶段的偏见如何导致不良临床结果并加剧健康不平等。作者表示,他们的研究结果反映了计算领域的一句老话:“垃圾进,垃圾出。”

“偏见输入,偏见输出,”耶鲁大学医学院(YSM)放射学与生物医学影像学及泌尿学助理教授John Onofrey博士说。“这个观点绝对适用。”该文章于11月7日发表在《PLOS数字健康》上,通过假设和真实的例子说明了偏见如何影响医疗结果,并提供了缓解策略。

“在机器学习/AI领域工作多年后,算法中存在偏见这一观点并不令人惊讶,”Onofrey说。“然而,列出所有可能进入AI学习过程的偏见方式是令人难以置信的。这使得偏见缓解似乎是一项艰巨的任务。”研究作者在医疗AI开发的每个阶段——训练数据、模型开发、出版和实施——识别了偏见来源,并提供了具体的例子和缓解策略。

在一个例子中,先前的研究发现,在估计肾功能时使用种族作为因素可能导致黑人移植患者等待更长时间才能被列入移植名单。耶鲁团队指出,未来算法应使用更精确的措施,如社会经济因素和邮政编码。

“在用于临床风险预测的医疗AI模型中,更好地捕捉和使用健康的社会决定因素将是至关重要的,”耶鲁大学医学院一年级医学生James L. Cross说,他是该研究的第一作者。

“偏见是一个人类问题,”放射学与生物医学影像学副教授Michael Choma博士补充道。“当我们谈论‘AI中的偏见’时,我们必须记住计算机是从我们这里学习的。”

更多信息:James L. Cross等,《医疗AI中的偏见:对临床决策的影响》,《PLOS数字健康》(2024)。DOI: 10.1371/journal.pdig.0000651

期刊信息:PLOS数字健康

提供者:耶鲁大学医学院

引用:'偏见输入,偏见输出':耶鲁大学研究揭示医疗AI中的偏见(2024年11月25日),2024年11月25日从 获取


(全文结束)

猜你喜欢
  • Prosper Africa在南非推出药品追溯试点项目Prosper Africa在南非推出药品追溯试点项目
  • 医疗保健领导者正在加大AI投资医疗保健领导者正在加大AI投资
  • 支付方和提供方增加对AI的投资支付方和提供方增加对AI的投资
  • 健康科技公司获得资金支持加速开发AI医疗设备健康科技公司获得资金支持加速开发AI医疗设备
  • AI算法通过电子健康记录检测早期代谢相关脂肪肝病AI算法通过电子健康记录检测早期代谢相关脂肪肝病
  • 卡迪夫的Laennec AI Limited获得资金支持,开发用于家庭医疗保健的人工智能医疗设备卡迪夫的Laennec AI Limited获得资金支持,开发用于家庭医疗保健的人工智能医疗设备
  • 优先考虑健身有助于保护大脑健康吗?优先考虑健身有助于保护大脑健康吗?
  • 领导力对话:Amy Perry,Banner Health总裁兼首席执行官,推动医疗创新领导力对话:Amy Perry,Banner Health总裁兼首席执行官,推动医疗创新
  • 医疗设备公司的数字化转型之路:CIO的经验分享医疗设备公司的数字化转型之路:CIO的经验分享
  • 独家:PatientsLikeMe推出专注于女性健康的AI助手Ella独家:PatientsLikeMe推出专注于女性健康的AI助手Ella
热点资讯
全站热点
全站热文