研究显示AI生成的精神病患者治疗方案存在种族偏见Study shows racial bias in AI-generated treatment regimens for psychiatric patients

环球医讯 / AI与医疗健康来源:medicalxpress.com美国 - 英文2025-07-07 18:21:47 - 阅读时长2分钟 - 962字
西达赛奈医疗中心的一项新研究发现,领先的人工智能平台在为精神病患者生成治疗建议时存在种族偏见模式,这凸显了防止强大的AI应用在医疗保健中延续不平等现象的必要性。
AI精神病患者治疗方案种族偏见医疗保健健康公平大型语言模型非裔美国人精神疾病治疗建议差异临床偏见测试
研究显示AI生成的精神病患者治疗方案存在种族偏见

一项由西达赛奈医疗中心(Cedars-Sinai Medical Center)领导的新研究发现,领先的人工智能(AI)平台在为精神病患者生成治疗建议时存在种族偏见模式。这些研究结果强调了需要进行监督,以防止强大的AI应用在医疗保健中延续不平等现象。

研究人员研究了四种大型语言模型(LLMs),这是一种经过大量数据训练的AI算法类别,使它们能够理解和生成人类语言。在医学领域,LLMs因其能够快速评估并推荐个别患者的诊断和治疗而引起了兴趣。

研究发现,当面对假设的临床案例时,如果明确或隐含地表明是非裔美国人身份,LLMs通常会为精神病患者提出不同的治疗建议,而对于未标明种族的患者则不同。相比之下,诊断相对一致。这些研究结果发表在《npj数字医学》(npj Digital Medicine)期刊上。

“大多数LLMs在处理非裔美国患者时表现出某种形式的偏见,有时对相同的精神性疾病和其他完全相同的患者作出截然不同的建议,”西达赛奈医疗中心生物医学科学系互联网、健康与社会项目主任、该研究的通讯作者Elias Aboujaoude博士表示。“这种偏见在精神分裂症和焦虑症病例中最为明显。”

该研究发现的差异包括以下几点:

  • 当明确声明种族时,两种LLMs省略了针对注意力缺陷/多动障碍(ADHD)病例的药物建议,但在未提及这些特征的情况下则提出了建议。
  • 另一种LLM建议对具有明确种族特征的抑郁症病例实施监护。
  • 一种LLM仅对明确标识为非裔美国人或具有常见非裔美国人名字的患者表现出增加关注减少酒精使用的倾向。

Aboujaoude认为,LLMs表现出种族偏见是因为它们反映了用于训练它们的广泛内容中存在的偏见。他指出,未来的研究应集中在检测和量化人工智能平台及训练数据中的偏见策略、创建抵抗人口统计偏见的LLM架构以及建立标准化的临床偏见测试协议。

“这项重要研究的结果呼吁医疗保健生态系统中的利益相关者采取行动,确保LLM技术增强健康公平而不是复制或加剧现有的不平等,”西达赛奈医疗中心生物医学科学系主席、Janis and William Wetsman家族炎症性肠病主席David Underhill博士说。“在实现这一目标之前,应谨慎部署此类系统,并考虑即使是细微的种族特征如何影响其判断。”


(全文结束)

大健康

猜你喜欢

  • 女性接受DCD心脏移植的可能性较低女性接受DCD心脏移植的可能性较低
  • 人工智能可通过语言、措辞和声音变化检测帕金森病人工智能可通过语言、措辞和声音变化检测帕金森病
  • 理解AI语言:医生高效提示指南理解AI语言:医生高效提示指南
  • 精通医学信息学——生物医学数据科学教育的高级主题精通医学信息学——生物医学数据科学教育的高级主题
  • 研究表明不要向AI聊天机器人寻求医疗建议研究表明不要向AI聊天机器人寻求医疗建议
  • MCP与主动性AI在医疗领域的革命性应用MCP与主动性AI在医疗领域的革命性应用
  • 不断上升的风险因素——心脏病仍是首要死亡原因不断上升的风险因素——心脏病仍是首要死亡原因
  • AI模型或可早期发现胰腺癌并预测其预后AI模型或可早期发现胰腺癌并预测其预后
  • 微软称AI工具在复杂医疗病例上胜过医生微软称AI工具在复杂医疗病例上胜过医生
  • 女性和有色人种被警告AI发布的健康建议可能存在“不准确”女性和有色人种被警告AI发布的健康建议可能存在“不准确”
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康