AI给予女性和少数族裔更差的医疗服务Are Biased AI Models a Threat to Fair Healthcare?

环球医讯 / AI与医疗健康来源:knowtechie.com美国 - 英语2025-09-23 06:03:50 - 阅读时长2分钟 - 692字
麻省理工学院等机构最新研究显示,医疗领域应用的AI模型延续了传统医学研究中的性别与种族偏见,导致女性患者常被建议"在家自我管理"而得不到充分治疗,非裔心理健康需求遭系统性忽视,且GPT-4等主流模型会基于人口统计数据而非实际症状推荐更昂贵医疗程序,随着谷歌Med-Gemini等工具加速进入医院,这些隐藏在算法中的数十年医疗偏见可能直接危及患者生命,凸显出在部署前进行强制性偏见审计的必要性。
AI医疗服务女性少数族裔医疗偏见大型语言模型医疗建议刻板分类同理心患者护理
AI给予女性和少数族裔更差的医疗服务

人工智能可能是现代医学的闪亮新工具,但已暴露出一些陈旧而丑陋的习性。

《金融时报》最新报告显示,医疗领域使用的AI模型正悄然延续数十年医学研究中固有的偏见,这些偏见历史上长期将女性和有色人种排除在外。多年来,临床试验和科学研究过度依赖白人男性受试者,导致生成的数据集仅反映人类群体的局部特征。

令人震惊的是:当这些失衡数据输入AI系统后,输出结果自然难以公平。(来源:Gizmodo

麻省理工学院研究人员近期测试了包括OpenAI的GPT-4和Meta的Llama 3在内的大型语言模型,发现它们更倾向于为女性患者提供较少的医疗建议,经常指示女性患者简单地"在家自我管理"。且问题不仅限于通用聊天机器人。即便专为医疗设计的Palmyra-Med模型也呈现出同样令人担忧的模式。

在伦敦,研究人员针对谷歌Gemma模型的研究发现,该模型对女性需求的重视程度低于男性。《柳叶刀》另一篇论文报告称,GPT-4会惯常基于种族、性别和族裔对患者进行刻板分类,有时仅依据人口统计数据而非实际症状推荐更昂贵的医疗程序。面对有色人种的心理健康问题时,AI始终缺乏应有的同理心。

这远非技术故障。谷歌、Meta和OpenAI等科技巨头正急于将AI工具引入医院,而这里的赌注关乎生命而非点赞数。今年早些时候,谷歌的Med-Gemini甚至虚构了一个身体部位,这种错误至少容易察觉;而偏见却以更隐蔽的方式潜伏其中。

随着AI在患者护理中扮演日益重要的角色,问题日益凸显:当算法悄然回荡数十年的医疗偏见时,医生能否及时察觉?因为没有任何人应该在急诊室就诊时才遭遇这种偏见。

【全文结束】

大健康

猜你喜欢

  • 探索医生AI聊天机器人在现代医疗保健中的潜力探索医生AI聊天机器人在现代医疗保健中的潜力
  • 构建医疗保健中负责任人工智能的共识构建医疗保健中负责任人工智能的共识
  • 如何确保医疗工作者从人工智能中受益如何确保医疗工作者从人工智能中受益
  • 医疗保健中的人工智能:机遇、挑战与基础医疗保健中的人工智能:机遇、挑战与基础
  • 医疗健康领域中的AI偏见:细微语言变化如何影响女性和少数族裔患者医疗健康领域中的AI偏见:细微语言变化如何影响女性和少数族裔患者
  • AI医疗工具对女性及少数群体提供更差治疗AI医疗工具对女性及少数群体提供更差治疗
  • 这家医疗初创公司利用大型语言模型进行诊疗预约和诊断这家医疗初创公司利用大型语言模型进行诊疗预约和诊断
  • 人工智能可像天气预报一样预测你的未来健康状况人工智能可像天气预报一样预测你的未来健康状况
  • AI能像天气预报一样预测你的未来健康状况AI能像天气预报一样预测你的未来健康状况
  • AI模型可提前数十年预测1000多种疾病风险AI模型可提前数十年预测1000多种疾病风险
  • 新型AI模型可提前十年预测疾病风险新型AI模型可提前十年预测疾病风险
  • AI模型可提前数十年预测疾病风险AI模型可提前数十年预测疾病风险
  • 这款新AI工具可预测癌症及1000多种疾病风险——认识Delphi-2M这款新AI工具可预测癌症及1000多种疾病风险——认识Delphi-2M
  • 新型AI模型可提前数年预测1200多种疾病风险新型AI模型可提前数年预测1200多种疾病风险
  • 人工智能推动医疗从被动应对转向主动护理人工智能推动医疗从被动应对转向主动护理
  • 斯坦福研究人员推出MedAgentBench:医疗健康AI智能体的真实世界基准测试斯坦福研究人员推出MedAgentBench:医疗健康AI智能体的真实世界基准测试
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康