AI揭示了劳动和分娩记录中的种族偏见AI Reveals Racial Bias in Labor, Delivery Notes Language

环球医讯 / 健康研究来源:www.miragenews.com美国 - 英语2025-05-14 03:00:00 - 阅读时长2分钟 - 916字
哥伦比亚大学护理学院的研究人员发现,住院分娩的黑人患者比白人患者更可能在其临床记录中被使用污名化语言。研究还发现西班牙裔和亚裔/太平洋岛民患者的描述也存在差异。
劳动和分娩记录种族偏见医疗保健电子健康记录污名化语言正面语言围产期护理公平性文化敏感性减轻偏见
AI揭示了劳动和分娩记录中的种族偏见

哥伦比亚大学护理学院的研究人员在《JAMA Network Open》上报告称,住院分娩的黑人患者比白人患者更可能在其临床记录中被使用污名化语言。

哥伦比亚护理学院助理教授Veronica Barcelona博士及其同事还发现,西班牙裔和亚裔/太平洋岛民(API)患者与白人患者的描述方式也存在差异。

作者指出,医务人员的记录既可能反映偏见,也可能延续偏见,并可能加剧医疗保健中的种族和族裔差异。Barcelona及其同事使用一种称为自然语言处理的人工智能技术,分析了2017-2019年间两家大型医院收治的18,646名分娩患者的临床记录,识别出电子健康记录中的污名化和正面语言实例。

四种类型的污名化语言包括:对患者边缘化语言/身份的偏见;暗示患者“难缠”;表示单方面/专制的临床决策;以及质疑患者的可信度。

研究人员还考虑了两种类型的正面语言:首选/自主性,将分娩患者描绘为积极的、参与决策的参与者;以及权力/特权语言,包括记录患者的地位或较高的心理或社会生态位置。

总体上有49.3%的患者记录中包含了偏见语言,而黑人患者的比例为54.9%。最常见的污名化语言类型是将患者描述为“难缠”,这一描述出现在28.6%的患者记录中,而在黑人患者的记录中这一比例为33%。

与白人患者相比,黑人患者在临床记录中出现任何类型污名化语言的可能性高22%。黑人患者在记录中出现正面语言的可能性也比白人患者高19%。

西班牙裔患者被记录为“难缠”的可能性比白人患者低9%,整体上出现正面语言的可能性低15%。亚裔/太平洋岛民患者在边缘化语言/身份类别中出现相关语言的可能性比白人患者低28%,其记录中出现权力/特权语言的可能性低31%。

作者总结道:“这些发现强调了实施有针对性的干预措施以减轻围产期护理中的偏见的重要性,并促进记录实践的公平性和文化敏感性。”

Barcelona在哥伦比亚护理学院的合作者包括数据管理员Ismael Ibrahim Hulchafo博士、博士生Sarah Harkins和副教授Maxim Topaz博士。

该研究得到了哥伦比亚大学数据科学研究所种子基金项目和戈登与贝蒂·摩尔基金会的资助。


(全文结束)

大健康

猜你喜欢

  • 英格兰国家医疗服务体系寻求建立单一患者记录英格兰国家医疗服务体系寻求建立单一患者记录
  • 慢性病预防成为CMS创新中心新战略的支柱慢性病预防成为CMS创新中心新战略的支柱
  • AI预测人体细胞中任何蛋白质的位置AI预测人体细胞中任何蛋白质的位置
  • 一种革命性的新算法通过照片判断你的生物年龄一种革命性的新算法通过照片判断你的生物年龄
  • 黑人青少年在心理健康紧急情况中被过度标记为高风险黑人青少年在心理健康紧急情况中被过度标记为高风险
  • 修复系统:生成式AI如何帮助恢复信任并挽救生命修复系统:生成式AI如何帮助恢复信任并挽救生命
  • AI工具通过自拍预测生物年龄和癌症生存率AI工具通过自拍预测生物年龄和癌症生存率
  • AI自拍如何预测生物年龄并改善癌症治疗AI自拍如何预测生物年龄并改善癌症治疗
  • 科学家声称AI可以通过分析自拍照来预测癌症患者的生存几率科学家声称AI可以通过分析自拍照来预测癌症患者的生存几率
  • AI可以从心脏扫描中猜测种族类别——这意味着什么以及为什么重要AI可以从心脏扫描中猜测种族类别——这意味着什么以及为什么重要
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康