AI医疗工具对女性及少数群体提供更差治疗AI Medical Tools Provide Worse Treatment for Women and Underrepresented Groups

环球医讯 / AI与医疗健康来源:gizmodo.com美国 - 英语2025-09-22 18:43:57 - 阅读时长2分钟 - 731字
最新研究显示,由于历史医疗数据中女性和有色人种的严重缺失,当前医生使用的AI医疗工具在诊断和治疗建议上对女性及少数群体存在系统性偏见,麻省理工学院和《柳叶刀》研究证实大语言模型更易建议女性患者"居家自我管理"而减少临床护理,谷歌医疗AI模型甚至会弱化女性健康需求,这种隐性偏见在AI加速进入医院的商业化进程中可能造成严重健康风险,且医生难以及时察觉这些延续医学刻板印象的决策错误,凸显人工智能医疗应用亟需解决数据公平性问题。
AI医疗工具女性少数群体健康结果医疗效果大语言模型医疗专用模型心理健康有色人种医疗偏见
AI医疗工具对女性及少数群体提供更差治疗

历史上,大多数临床试验和科学研究主要以白人男性为对象,导致女性和有色人种在医学研究中严重缺失。事实证明,当金融时报近期报道指出,医生使用的AI工具正因输入此类数据而产生更差的医疗效果——那些长期被忽视的群体正承受更糟糕的健康结果。

麻省理工学院研究人员近期论文显示,包括OpenAI的GPT-4和Meta的Llama 3在内的大语言模型"更可能错误地降低对女性患者的护理",女性比男性更常被建议"居家自我管理",最终在临床环境中获得更少治疗。尽管这些模型属于通用型而非医疗专用,但研究同时发现医疗专用大语言模型Palmyra-Med也存在类似偏见。伦敦经济学院对谷歌医疗AI模型Gemma(非旗舰产品Gemini)的分析同样表明,该模型生成的结果会"弱化女性需求",相较于男性患者。

先前研究已发现,AI模型在心理健康领域对有色人种的关怀程度低于白人患者。去年发表在《柳叶刀》的论文指出,OpenAI的GPT-4模型经常"对特定种族、民族和性别进行刻板印象",其诊断建议更多受人口统计特征而非症状驱动。论文结论强调:"模型生成的评估方案显示,人口属性与推荐昂贵医疗程序存在显著关联,且患者感知存在差异。"

这一问题在谷歌、Meta和OpenAI争相将工具引入医院的当下尤为严峻。医疗市场虽利润丰厚,但错误信息的后果极其严重。今年早些时候,谷歌医疗AI模型Med-Gemini曾因虚构人体器官登上新闻,这类错误医护人员尚可识别;但偏见往往更为隐蔽且不易察觉。当AI模型延续医学领域的长期刻板印象时,医生能否及时质疑?没有人该用亲身经历去验证这个答案。

【全文结束】

大健康

猜你喜欢

  • 医疗生态系统与人工智能整合中的信任关系医疗生态系统与人工智能整合中的信任关系
  • 新型AI工具可一次性评估1000多种疾病风险新型AI工具可一次性评估1000多种疾病风险
  • 古巴在开发药物治疗方面开拓新领域古巴在开发药物治疗方面开拓新领域
  • 30秒健康小技巧或可挽救生命30秒健康小技巧或可挽救生命
  • 以色列医院首次在催眠状态下进行深度脑部手术以色列医院首次在催眠状态下进行深度脑部手术
  • NHL明星透露未婚妻在法国度假期间因严重心力衰竭接受心脏移植NHL明星透露未婚妻在法国度假期间因严重心力衰竭接受心脏移植
  • 研究发现农村医院合并后常取消产科服务研究发现农村医院合并后常取消产科服务
  • 医疗扫描辐射与儿童血液癌症风险升高相关医疗扫描辐射与儿童血液癌症风险升高相关
  • 增强现实医疗模拟:影响接受度的多地点研究因素增强现实医疗模拟:影响接受度的多地点研究因素
  • 编程模拟7岁女孩行为的AI机器人在医院带来不同层次的关怀编程模拟7岁女孩行为的AI机器人在医院带来不同层次的关怀
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康