医疗中的AI是否公平?研究人员对生成式人工智能模型进行压力测试并呼吁保障措施
西奈山医学院研究人员对九种大型语言模型进行大规模压力测试,发现所有生成式人工智能模型均会基于患者的社会经济和人口统计背景差异推荐不同治疗方案,即便临床细节完全相同;研究显示高收入患者更易被建议进行CT或MRI等高级检查,而低收入患者常被建议无需进一步检查,且部分模型在心理健康评估中存在非必要升级倾向;该成果发表于《自然医学》期刊,强调需建立早期检测机制和严格验证流程,通过优化模型训练、提示设计及监督体系确保AI医疗服务的公平性与安全性,为制定全球AI医疗保障最佳实践提供科学框架,避免算法偏见加剧医疗资源分配不公。

