人工智能(AI)正在改变现代医学,从在症状出现前预测心脏病,到通过放射扫描中的计算机辅助肿瘤检测协助癌症诊断。其前景十分广阔。但随着这项技术重塑医疗保健,一个关键问题浮现:AI究竟在为谁服务?尽管具有革命性潜力,AI融入医疗保健却携带一种隐性偏见。许多用于训练医疗AI系统的数据集基于主要由男性组成的研究(Cirillo等,2020)。当算法从男性主导的数据中学习时,结果可能令人担忧:对女性,尤其是有色人种女性的漏诊和/或误诊、症状误读以及诊断预测准确性降低(Ferryman等,2023)。
想象一种算法,基于"典型"症状标记心脏事件,但这些症状的定义仅限于男性患者所经历的症状。结果会怎样?一位表现出不同或更细微预警信号的女性可能被漏诊(甚至被忽视),这强化了医学数十年来一直努力纠正的不平等现象。最新研究表明,大多数生物医学AI工具并未系统性地考虑性别差异,且许多忽略了种族和社会经济地位等其他交叉变量(Liu等,2025)。这种疏忽意味着AI可能会无意中放大而非减少差异。
AI中的偏见不仅是一个编码问题,而是对医疗保健中已存在不平等的反映。如果女性在临床研究中代表性不足,这些差距会被带入用于训练AI的数据集中。这意味着下一代"智能"诊断工具可能会重复导致数十年来诊断延迟、治疗不足和症状表现不当的相同盲点。
在产科和妇科等领域,AI在预测子痫前期和产后出血等妊娠并发症,甚至在检测妇科癌症方面展现出潜力(Dos Santos, 2025; Garg等, 2023; Brandão等, 2024)。然而,这些模型往往缺乏外部验证,意味着它们未在不同女性群体中进行测试,且很少纳入健康的社会决定因素(Dhombres等, 2022)。如果没有此类检查,AI工具的准确性和公平性仍然有限,其临床建议可能存在不完整甚至有害的风险。
AI并非中立。每个数据集都反映了关于包含谁、如何定义数据以及优先考虑哪些结果的决策。如果医疗保健的数字未来建立在有偏见的输入之上,它将大规模放大不平等。这将本应是包容性工具转变为加深现有分歧的工具。对于临床医生而言,这意味着要意识到嵌入电子健康记录、成像软件甚至分诊系统中的算法在不同患者群体中可能表现不同。对于研究人员而言,这意味着设计研究时应将性别作为关键变量,而不仅仅是事后考虑。对于患者而言,这凸显了透明度和持续教育的必要性,了解数字健康工具如何做出影响其护理的决策。
好消息是?意识正在增强,解决方案正在涌现。研究人员正在开发具有人口统计学代表性的数据集,并将公平性审计嵌入模型设计中,以早期检测和纠正偏见(Ferryman等,2023; Liu等,2025)。像美国国立卫生研究院的Bridge2AI计划等举措旨在构建更具包容性的数据生态系统,更好地反映真实世界患者的多样性(Ferryman等,2023)。要使AI真正推进公平医疗,我们必须从数据收集到临床实施的每一步都坚持透明度、问责制和包容性。
正如Cirillo及其同事(2020)所强调的,解决性别偏见不仅仅是一个技术修复;而是一项伦理要求。这个问题超越了算法,它挑战我们重新思考谁设计我们的技术、谁的数据被重视,以及谁的体验在研究中被优先考虑。AI可能拥有缩小健康差距的力量,但若没有刻意行动,它可能会扩大这些差距。因此,这是您的行动呼吁:
- 提出问题。 当您听说医疗保健中的一项新AI突破时,询问它是如何训练的、谁被包括在内,以及谁可能被遗漏。
- 倡导包容性。 无论您是学生、临床医生还是研究人员,都支持构建公平数据集并强调女性在临床试验中代表性的工作。
- 加入对话。 医学中的公平性取决于技术、伦理和倡导之间的协作。让我们确保女性和少数群体在医疗保健创新的未来中不被当作事后考虑。
【全文结束】

