'偏见输入,偏见输出':耶鲁大学研究揭示医疗AI中的偏见'Bias in, bias out': Study identifies bias in medical AI

环球医讯 / AI与医疗健康来源:medicalxpress.com美国 - 英语2024-11-26 00:00:00 - 阅读时长2分钟 - 817字
耶鲁大学研究人员分析了医疗AI开发各阶段的偏见来源及其对临床结果的影响,并提供了缓解策略。
耶鲁大学医疗AI偏见健康不平等临床结果缓解策略训练数据模型开发PLOS数字健康
'偏见输入,偏见输出':耶鲁大学研究揭示医疗AI中的偏见

在一项新的综述中,耶鲁大学的研究人员深入分析了AI开发不同阶段的偏见如何导致不良临床结果并加剧健康不平等。作者表示,他们的研究结果反映了计算领域的一句老话:“垃圾进,垃圾出。”

“偏见输入,偏见输出,”耶鲁大学医学院(YSM)放射学与生物医学影像学及泌尿学助理教授John Onofrey博士说。“这个观点绝对适用。”该文章于11月7日发表在《PLOS数字健康》上,通过假设和真实的例子说明了偏见如何影响医疗结果,并提供了缓解策略。

“在机器学习/AI领域工作多年后,算法中存在偏见这一观点并不令人惊讶,”Onofrey说。“然而,列出所有可能进入AI学习过程的偏见方式是令人难以置信的。这使得偏见缓解似乎是一项艰巨的任务。”研究作者在医疗AI开发的每个阶段——训练数据、模型开发、出版和实施——识别了偏见来源,并提供了具体的例子和缓解策略。

在一个例子中,先前的研究发现,在估计肾功能时使用种族作为因素可能导致黑人移植患者等待更长时间才能被列入移植名单。耶鲁团队指出,未来算法应使用更精确的措施,如社会经济因素和邮政编码。

“在用于临床风险预测的医疗AI模型中,更好地捕捉和使用健康的社会决定因素将是至关重要的,”耶鲁大学医学院一年级医学生James L. Cross说,他是该研究的第一作者。

“偏见是一个人类问题,”放射学与生物医学影像学副教授Michael Choma博士补充道。“当我们谈论‘AI中的偏见’时,我们必须记住计算机是从我们这里学习的。”

更多信息:James L. Cross等,《医疗AI中的偏见:对临床决策的影响》,《PLOS数字健康》(2024)。DOI: 10.1371/journal.pdig.0000651

期刊信息:PLOS数字健康

提供者:耶鲁大学医学院

引用:'偏见输入,偏见输出':耶鲁大学研究揭示医疗AI中的偏见(2024年11月25日),2024年11月25日从 获取


(全文结束)

大健康

猜你喜欢

  • 独家:PatientsLikeMe推出专注于女性健康的AI助手Ella独家:PatientsLikeMe推出专注于女性健康的AI助手Ella
  • 研究发现减肥药物可对抗酒精滥用的影响研究发现减肥药物可对抗酒精滥用的影响
  • 医疗设备公司的数字化转型之路:CIO的经验分享医疗设备公司的数字化转型之路:CIO的经验分享
  • 牙医帮助牙医:由临床医生创立的OraQ获得260万美元用于通过AI评估患者风险牙医帮助牙医:由临床医生创立的OraQ获得260万美元用于通过AI评估患者风险
  • JAMA 推出致力于健康 AI 研究和观点的新频道JAMA 推出致力于健康 AI 研究和观点的新频道
  • 西奈山医院开设汉密尔顿和阿梅布尔·詹姆斯人工智能与人类健康中心,引领医疗保健的人工智能革命西奈山医院开设汉密尔顿和阿梅布尔·詹姆斯人工智能与人类健康中心,引领医疗保健的人工智能革命
  • 西奈山医院开设汉密尔顿和阿梅布尔·詹姆斯人工智能与人类健康中心,引领医疗保健的人工智能革命西奈山医院开设汉密尔顿和阿梅布尔·詹姆斯人工智能与人类健康中心,引领医疗保健的人工智能革命
  • 人工智能技术革新眼科健康与新闻业人工智能技术革新眼科健康与新闻业
  • 新型疟疾疫苗在临床试验中显示出高保护效力新型疟疾疫苗在临床试验中显示出高保护效力
  • AI能否帮助降低处方药费用?AI能否帮助降低处方药费用?
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康