'有偏见的数据产生有偏见的结果':耶鲁大学研究发现医疗AI中的偏见'Bias In, Bias Out': Yale Study Identifies Bias in Medical AI | Newswise

环球医讯 / AI与医疗健康来源:www.newswise.com美国 - 英语2024-11-22 23:00:00 - 阅读时长2分钟 - 642字
耶鲁大学研究人员深入分析了医疗AI开发各阶段的偏见来源及其对临床结果的影响,并提出了缓解策略。
耶鲁大学医疗AI偏见健康不平等临床结果缓解策略训练数据模型开发出版实施
'有偏见的数据产生有偏见的结果':耶鲁大学研究发现医疗AI中的偏见

在一项新的综述中,耶鲁大学的研究人员详细分析了AI开发不同阶段的偏见如何导致不良临床结果和加剧健康不平等。作者表示,他们的研究结果反映了计算机领域的老生常谈:“垃圾进,垃圾出。”

“有偏见的数据产生有偏见的结果,”耶鲁医学院(YSM)放射学与生物医学影像学助理教授、泌尿学副教授John Onofrey博士说,“这个观点绝对适用。”该文章于11月7日发表在《PLOS数字健康》上,提供了假设和真实案例,说明偏见如何影响医疗结果,并提供了缓解策略。“在机器学习/AI领域工作多年后,算法中存在偏见这一观点并不令人惊讶,”Onofrey说,“然而,列出所有可能导致偏见进入AI学习过程的方式是令人难以置信的。这使得偏见缓解看起来像是一项艰巨的任务。”

研究作者确定了医疗AI开发每个阶段的偏见来源——训练数据、模型开发、出版和实施——并为每个阶段提供了说明性案例和偏见缓解策略。在一个例子中,先前的研究发现,在估计肾功能时使用种族作为因素会导致黑人移植患者等待移植名单的时间更长。耶鲁团队指出,未来算法应使用更精确的措施,如社会经济因素和邮政编码。“在用于临床风险预测的医疗AI模型中,更好地捕捉和使用健康的社会决定因素将是至关重要的,”耶鲁医学院一年级医学生James L. Cross和该研究的第一作者说。

“偏见是一个人类问题,”放射学与生物医学影像学副教授Michael Choma博士说,“当我们谈论‘AI中的偏见’时,我们必须记住,计算机是从我们这里学习的。”


(全文结束)

大健康

猜你喜欢

  • 赋能社区药房:弥合健康不平等的关键赋能社区药房:弥合健康不平等的关键
  • 学术医疗中心研究项目的AI路线图学术医疗中心研究项目的AI路线图
  • Laurel Bridge Software 在 RSNA 2024 推出新的 AI 和云创新,推进医学影像工作流程Laurel Bridge Software 在 RSNA 2024 推出新的 AI 和云创新,推进医学影像工作流程
  • 未来医院的愿景:医疗的积极奇点未来医院的愿景:医疗的积极奇点
  • HCP定位最重要的衡量标准:品牌价值——医疗保健营销人员如何理解和激活最有价值的HCPHCP定位最重要的衡量标准:品牌价值——医疗保健营销人员如何理解和激活最有价值的HCP
  • 利用AI提升患者满意度和提供者表现的五种方法利用AI提升患者满意度和提供者表现的五种方法
  • Veradigm 推出 AI 驱动的环境记录员以减轻医疗保健提供者的文档负担Veradigm 推出 AI 驱动的环境记录员以减轻医疗保健提供者的文档负担
  • 医疗董事会必须推动AI治理和问责制医疗董事会必须推动AI治理和问责制
  • 利用AI提升患者满意度和提高医疗服务提供者表现的5种方法利用AI提升患者满意度和提高医疗服务提供者表现的5种方法
  • AI在医疗领域的影响:华盛顿大学专家发表见解AI在医疗领域的影响:华盛顿大学专家发表见解
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康