探索个性化医学中人工智能的性别偏见:与跨性别群体成员的焦点小组研究
摘要
本研究通过西班牙跨性别群体的焦点小组讨论,探讨人工智能(AI)在个性化医学中的应用及其面临的性别偏见问题。研究发现,跨性别群体在医疗数据收集、算法设计和专业培训中面临系统性挑战:1)跨性别医疗数据严重缺失导致误诊风险;2)二元性别算法模型加剧身份误判;3)医疗从业者专业知识不足。参与者提出三项解决方案:建立跨性别主导的医疗数据库、开发包容性AI应用、完善性别多样性培训体系。研究强调,AI技术必须突破二元性别框架,将跨性别视角纳入医疗系统设计。
方法
研究采用沟通方法论(communicative methodology),通过平等对话确保跨性别群体全程参与。研究团队与西班牙PRISMA协会合作,制定三轮焦点小组方案,最终16名跨性别参与者完成讨论。数据分析采用ATLAS.ti编码系统,重点分析个性化医疗和AI技术两大领域,提炼出医疗护理、药物使用、数据偏见等核心编码类别。
结果
主要障碍
- 医疗研究缺口:跨性别医疗数据缺失导致严重误诊案例。例如某跨性别女性的医疗记录错误标注性别,导致激素治疗方案偏差。参与者强调需要建立专门针对跨性别人群的药物反应数据库。
- 算法偏见:语音识别技术存在二元性别刻板印象。某跨性别女性在使用语音女性化软件时,系统仍将其识别为男性。应用程序界面设计中粉色/蓝色二元色彩编码引发跨性别群体强烈反感。
- 专业能力不足:医疗从业者对跨性别健康需求认知有限。部分医生将跨性别者的血液检测结果错误判定为贫血,未考虑激素治疗的正常生理变化。
关键解决方案
- 数据包容性:建议开发包含跨性别健康指标的专用数据库。例如某跨性别女性指出需建立激素水平动态跟踪系统,实现医疗自主预约。
- 算法透明化:推动社区主导AI开发。参与者建议将跨性别群体纳入医疗AI设计团队,如某应用通过用户语音样本持续优化性别识别算法。
- 伦理框架:建立反偏见医疗体系。PRISMA协会主导的TRANSIT项目显示,持续专业培训可显著提升医疗服务质量。
讨论
研究揭示的挑战与现有文献高度吻合:1)全球医疗AI普遍存在二元性别算法缺陷;2)跨性别数据收集缺乏标准化;3)技术偏见加剧医疗不平等。本研究创新性在于提出"三支柱"解决方案:开发包容性健康应用(技术层)、建立信任机制(制度层)、促进社群互助网络(社会层)。这些发现与《联合国人工智能伦理建议》等国际规范相呼应,但指出现行法规对跨性别群体保护存在显著漏洞。
政策建议
- 强制要求医疗AI开发纳入跨性别视角
- 建立LGBTIQ+群体算法偏见专项审查机制
- 推行医疗科技从业者跨性别健康必修课程
- 创建保护隐私的性别多元医疗数据基础设施
- 资助社区主导型数字健康研究项目
【全文结束】

