新加坡,2025年11月13日——试想医学生为虚拟患者诊断,或初级医生在元宇宙教室中练习抽血等操作技能。这些人工智能驱动的工具并非科幻情节,而是正在兴起的现实,有望以更快更优的方式培养更多医生,以满足全球日益增长的医疗需求。
发表在《柳叶刀数字健康》的新研究展示了人工智能如何变革医学教育,同时呼吁医学院、医院及监管部门加强协作,确保其应用安全、负责且有效。该研究由杜克-国大医学院、新加坡中央医院和清华大学的研究人员共同开展,指出了人工智能应用面临的关键障碍,如伦理考量和资源限制。为应对这些挑战,研究团队呼吁建立覆盖医学院、医疗机构、学术机构、产业伙伴及监管部门的紧密协作网络,共同开发人工智能赋能的医学教育与医师培训方案。
当前全球卫生系统面临人力短缺和提升医疗质量的迫切需求,世界卫生组织预测到2030年将出现约1000万医疗工作者缺口。
人工智能支持更多元化的学习体验
研究人员强调,人工智能特别是大语言模型(如基于海量文本训练的ChatGPT)的进步,可有效弥补这一缺口。人工智能工具能实现医学教育个性化:生成的虚拟患者可模拟更真实复杂的临床场景,突破后勤与财务限制;结合增强现实或虚拟现实技术提供沉浸式学习体验;人工智能驱动的元宇宙环境更创新性地支持团队学习和病例讨论。此外,人工智能正通过简化文献综述等任务支持医学研究,使医学生和住院医师有更多时间投入批判性思维。
杜克-国大医学院人工智能与医学科学计划研究员兼新加坡中央医院首席临床药师Jasmine Ong博士(论文共同第一作者)表示:“人工智能并非取代临床教育者和导师,而是赋能他们。它使教育者能专注于核心任务——与学习者建立有意义的联结。作为数字助教,人工智能通过个性化反馈和真实临床模拟提升学习体验,助力塑造新一代医疗专业人才。”
实现人工智能潜力的挑战
尽管潜力巨大,人工智能在医学教育应用中仍面临合格培训师不足及实施策略缺乏验证等挑战。大语言模型的准确性与可信度尤为令人担忧,“幻觉”或虚构信息问题持续存在。此外,大语言模型已显现性别、种族等偏见,当这些偏见嵌入医学文献时,可能长期加剧系统性不平等。隐私问题也日益凸显,存在患者信息泄露风险。
杜克-国大医学院定量医学中心高级研究员兼论文共同第一作者Ning Yilin博士指出:“随着人工智能深度融入医学教育,我们必须解决其引发的伦理问题,如确保适当使用、维护学习诚信并预防意外伤害。这些挑战亟需明确指导和包容性、负责任的设计方案。”
呼吁协作:推动人工智能负责任应用
杜克-国大医学院定量医学中心副教授、人工智能与医学科学计划主任兼论文资深作者Liu Nan副教授补充道:“人工智能正在全球变革医学教育。通过制定综合性全球战略并开展跨领域合作,我们能负责任地部署生成式人工智能,创造更具互动性和可及性的培训,并将成效转化为更优患者护理。”
研究团队强调,医学教育中人工智能的可持续应用需跨领域紧密协作。医疗机构、医学院、产业伙伴和政府部门须共同开发负责任、可扩展且基于证据的解决方案。此类合作将推动人工智能整合型医学教育框架的建立,也是确立资金模式和资源支持的关键。
【全文结束】

