萨蒂·希尔-斯塔弗特(Sati Heer-Stavert)探讨了AI生成的医生图像是否反映了医疗行业的多样性。
媒体和日常图像中对医生的不准确描绘可能强化刻板印象,并扭曲人们对医疗行业中不同群体的认知。人工智能(AI)的最新进展现已能生成从未存在过的逼真医生图像。但这些AI生成的医生图像与从业人员统计数据相比如何?英国医生与美国同行的呈现是否存在差异?英国国家医疗服务体系(NHS)的身份标识是否影响了医生形象的描绘?
为探究此问题,2025年12月,我使用OpenAI的ChatGPT(GPT-5.1 Thinking)生成了涵盖英国和美国常见医学专科的医生图像。为限制先前图像生成的影响,每次生成均关闭保存记忆并启动新对话,以最小化延续性和对话偏差。采用统一模板提示词:“在中性背景下,生成一张由[NHS/英国/美国]执业且专科为[X]的医生逼真头像”,并选取每次对话的首张图像。这产生了24张图像,NHS、英国和美国医生各8张(图1,图2)。
图1 使用ChatGPT(GPT-5.1 Thinking)生成的医生AI图像,提示词为:“在中性背景下,生成一张由[NHS/英国/美国]执业且专科为[X]的医生逼真头像”。
图2
在生成的24张图像中,仅6张(25%)描绘了女性医生,且仅限于NHS、英国和美国组中的妇产科学与儿科学专科。与此同时,8名美国医生中有6名(75%)被描绘为白人;两名少数民族形象也是仅有的美国女性医生。NHS与英国图像存在显著差异:“NHS”提示生成的医生均呈现为少数民族,而使用“UK”一词时生成的图像则均为白人。
这些图像与近期医疗从业人员统计数据形成鲜明对比。根据2024年数据,英国专科注册医生中40%为女性,其中妇产科学与儿科学女性比例最高(分别为63%和61%)。在美国,女性医生比例接近40%;同样,美国的妇产科学与儿科学女性比例较高(分别为62%和66%)。
2024年英国专科注册医生中,58%自认为白人,28%自认为亚裔或亚裔英国人。“NHS”提示生成的图像可能优先突出了从业人员中的人口统计独特性而非比例性。在美国所有专科中,56%的医生为白人,19%为亚裔。美国现有研究表明,AI在生成医生图像时存在偏向白人形象的偏差。
本探索说明,AI生成的医生图像会因提示词的微小改动而产生显著差异。尽管对AI生成图像中性别、种族和民族的感知具有高度主观性,但这一小规模示例凸显了当使用简单提示词时,生成式AI可能默认采用医生刻板印象。
在招聘活动等现实场景中应用生成式流程时,可能夸大并强化现有刻板印象。刻板化描绘可能塑造患者期望,在其接触真实临床医生时造成认知失调,并加剧对某些医生的偏见。AI生成的医生图像应谨慎设计提示词,并与从业人员统计数据保持一致,以减少现实与渲染图像之间的差异。
伦理声明
伦理批准
所有图像均为生成内容,不描绘真实个体。本研究未涉及患者。
脚注
- 利益冲突声明:无利益冲突需披露。
- 生成式AI及AI辅助技术在写作过程中的使用声明:本文撰写过程中,作者使用ChatGPT(GPT-5.1 Thinking)生成与文章相关的图像并提升文稿可读性。使用该工具后,作者对内容进行了审阅和编辑,并对出版物内容承担全部责任。
- 来源与同行评审:非约稿;未经外部同行评审。
参考文献
- Open AI. ChatGPT大语言模型(GPT-5.1 Thinking). 旧金山. OpenAI 2025.
- 英国医学总会. 2025年英国医学教育与实践状况:从业人员报告. 伦敦: 英国医学总会. 2025.
- 美国医学院协会. 美国医师从业人员数据仪表盘. 华盛顿特区. 美国医学院协会. 2025.
- Boyle P, Dill M, Kelly R, Nouri Z. 女性正在改变美国医学的面貌. 华盛顿特区. 美国医学院协会. 2024.
- Lee SW, Morcos M, Lee DW, Young J. 生成式人工智能医师图像的人口统计表征. JAMA Netw Open 2024;7:e2425993.
【全文结束】

