人工智能正在迅速成为现代医学不可或缺的一部分,但医疗专业人员是否准备好应对它带来的伦理挑战?毫无疑问,人工智能在改善诊断、决策和患者结果方面具有巨大的潜力,但缺乏针对医疗专业人员(HCPs)的明确伦理指南仍然是一个重大问题。
一项名为“开发医疗AI使用的专业伦理指导(PEG-AI):态度调查试点”的新研究,发表于《AI & Soc》(2025年),探讨了这一紧迫问题。通过收集来自医疗从业者、学者和患者的见解,该研究揭示了现有专业指南中的空白,并提出了一个统一的伦理框架,用于临床环境中的AI使用。
为什么医疗领域需要AI伦理指南
AI在医院和诊所中的应用日益增多,从诊断成像到患者风险评估都有涉及。然而,尽管其使用越来越广泛,但仍没有标准化的专业指南来帮助HCPs应对AI引入的伦理挑战。当前的法规往往侧重于AI开发者和购买者,而忽略了最终用户——依赖AI驱动见解的医生、护士和临床医生——缺乏明确的规则手册。
这种缺乏指导的情况造成了一个危险的灰色地带,专业人员必须在不知道自己承担多少责任、如何管理偏见或何时质疑AI生成的建议的情况下做出与AI相关的决策。该研究强调了迫切需要伦理监督,以防止AI损害患者安全、公平性和专业责任。
AI伦理指南应包括什么?
为了解决这些问题,该研究调查了42名参与者,包括医疗专业人员、学者和患者。受访者审查了六个核心伦理主题和15条具体指南,这些内容应成为官方的AI专业伦理指导(PEG-AI)的一部分。
1. 防止患者伤害
参与者的最大担忧之一是AI不应降低专业标准或危及患者安全。许多人担心HCPs可能会过度依赖AI系统,而没有完全理解其局限性。培训被认为是必不可少的,以确保HCPs在采取行动之前批判性地评估AI输出。
2. 确保公平、包容和公正
AI系统中的偏见是一个众所周知的问题,特别是在皮肤病学等领域,训练数据集往往未能代表多样化的患者群体。该研究强调,在部署前测试AI工具的公平性,以防止扩大现有的医疗不平等。
3. 保护患者自主权
许多受访者认为,患者有权知道何时在其护理中使用了AI,甚至有权拒绝AI驱动的决策。然而,其他人指出,随着AI越来越多地集成到临床工作流程中,拒绝其使用可能变得不切实际。
4. 保持医疗专业人员的自主权
研究发现,关于HCPs应该放弃多少控制权给AI的意见不一。虽然一些人认为AI应仅作为决策支持工具,但其他人担心过度依赖AI可能会随着时间的推移侵蚀临床判断。
5. 责任和问责制
AI伦理的一个关键问题是,当出现问题时谁负责——HCPs、AI开发者还是医疗机构?该研究强调,HCPs应对其AI使用负责,确保他们理解和证明AI支持的决策。然而,需要明确的法律框架来定义AI辅助护理中的责任。
6. 透明度和同意
研究表明,并非所有患者都意识到在其诊断或治疗中使用了AI。许多受访者认为透明度至关重要,但在是否需要明确同意的问题上意见不一。一些人认为AI只是另一种医疗工具——类似于MRI机器——而另一些人则认为患者应始终有选择权。
实施AI伦理指南的挑战
尽管受访者普遍认同需要专业的AI指导,但该研究也指出了实施过程中的一些障碍。这些包括:
- AI性能的高度变异性:AI系统在受控环境中表现良好,但在现实世界中,由于患者数据的差异,它们可能会表现不佳。HCPs应该如何处理模型不一致时的AI建议?
- 数据隐私问题:AI系统依赖大量数据集,其中通常包含敏感的患者信息。需要明确的数据安全和伦理AI培训政策。
- 冲突的法规:不同的医疗监管机构可能会制定自己的AI指南,导致碎片化和不一致的标准。需要一个统一的跨专业框架。
- 培训和教育:许多HCPs缺乏AI素养,难以批判性地评估AI生成的建议。该研究建议将AI伦理整合到医学教育和持续专业培训中。
前进的道路:统一的伦理框架
该研究提出开发一个适用于医疗领域的通用AI伦理框架。该指导将作为监管的基础,帮助:
- 设定AI驱动决策的明确责任规则。
- 确保AI工具在部署前经过公平性和安全性测试。
- 教育HCPs了解AI的风险、局限性和偏见。
- 通过确保AI驱动护理的透明度来保护患者权利。
- 统一不同医疗领域和专业的法规。
虽然这项研究只是一个初步研究,但其发现为更大规模的咨询、专家讨论和政策发展奠定了基础。作者计划通过进行访谈、研讨会和迭代共识建设活动来扩展这项工作,以完善PEG-AI。
(全文结束)

