美国国家医学院发布行为准则 指导医疗保健AI革命National Academy of Medicine Issues Code of Conduct to Guide Health Care’s AI Revolution - Penn LDI

环球医讯 / AI与医疗健康来源:ldi.upenn.edu美国 - 英语2025-11-14 00:45:32 - 阅读时长5分钟 - 2385字
美国国家医学院发布《医疗健康人工智能行为准则》,提出六项核心承诺指导AI在医疗领域的负责任应用。宾夕法尼亚大学凯文·B·约翰逊教授作为报告主要作者之一,强调该准则旨在解决AI可能加剧的偏见、信任危机和数字鸿沟等问题,通过国家框架协调各方行动,确保技术发展兼顾伦理与公平。报告呼吁建立统一的偏见度量标准和认证体系,推动AI在医疗保健中实现创新与安全应用,避免重蹈电子健康记录领域的混乱局面,同时提出在开发、部署全过程嵌入公平考量而非等待完美无偏状态的务实策略。
医疗保健AI健康人工智能行为准则人类福祉公平劳动力福祉绩效监控创新偏见度量患者安全伦理问题数据隐私透明性信任临床医生职业倦怠医疗服务平等电子健康记录
美国国家医学院发布行为准则 指导医疗保健AI革命

LDI高级研究员、宾夕法尼亚大学教授凯文·B·约翰逊医学博士、理学硕士是这份206页国家报告的21位作者之一。

随着人工智能迅速渗透到医疗保健的各个角落——从阅读X光片到撰写医疗记录——美国国家医学院的一份新报告警告称,这项技术的前景可能会轻易加剧它旨在解决的问题。虽然人工智能工具被誉为解决临床医生职业倦怠、成本上升和医疗服务获取不平等的方案,但它们也存在放大偏见、削弱信任和扩大数字鸿沟的风险。

学院提出的新解决方案在一份新报告中阐明:《医疗健康人工智能行为准则:协同行动的基本指导》(AICC)。该报告提供了一套六项简单但全面的承诺——提升人类福祉、确保公平、让受影响者参与、改善劳动力福祉、监控绩效以及促进创新——以帮助国家在不牺牲伦理、安全或公平的前提下利用人工智能的好处。

LDI高级研究员、宾夕法尼亚大学教授凯文·B·约翰逊医学博士、理学硕士是这份206页国家报告的21位作者之一。

提供国家框架

"电子健康记录发生的情况正在AI领域重演,"约翰逊说。"每个人都在开发工具,但没有一个共享的操作手册来确保它们安全、公平且真正有用。这份报告的发布是为了给混乱带来一些秩序。它为我们提供了一个国家框架,使医疗保健中的人工智能能够以负责任的方式开发和使用,以透明度和信任为核心。"

约翰逊在宾夕法尼亚大学佩雷尔曼医学院拥有生物统计学、流行病学和信息学的联合任命;在宾夕法尼亚大学工程与应用科学学院担任计算机与信息科学和生物工程教授;并在安嫩伯格传播学院担任科学传播教授。他以对电子处方和基于计算机的临床文档的广泛研究而闻名。

他指出,该领域需要更加关注医疗保健中的人工智能正成为一种自由放任的状态。"医院、公司和机构都在快速行动,但不一定朝着同一方向。这种缺乏协调的情况导致工作重复、责任不明确以及对患者的保护不均衡。这份报告提供了解决这一问题的方法。它建立了一个模式,明确目标和责任,足够开放以允许创新,并专注于系统实施后的结果跟踪。"

原则与承诺

《人工智能行为准则》(AICC)框架围绕两个组成部分:

准则原则与美国国家医学院(NAM)的学习型健康系统(LHS)在公平、安全和透明方面的核心承诺保持一致。

准则承诺被视为基于复杂适应系统理论(CAST)的"简单规则",以指导组织和个人。(CAST是一个理解大量相互关联的元素——如人、生物或组织——如何随时间互动、适应和演变的框架。它强调系统的整体行为是从其部分的互动中产生的,而不是由任何单一的控制力量所引导的。)

六项准则建议

报告建议的六项准则承诺是:

  1. 提升人类福祉——通过治理、认证和透明度使人工智能与社会目标保持一致。
  2. 确保公平——监控和减少偏见,并支持资源匮乏的组织获取。
  3. 让受影响者参与——在人工智能生命周期中让利益相关者参与;促进共同治理和教育。
  4. 改善劳动力福祉——培养积极的环境和再培训以减轻职业倦怠。
  5. 监控绩效——建立评估人工智能对结果、质量和安全影响的指标。
  6. 创新与学习——支持研究、共享学习和人工智能的持续改进。

约翰逊强调,管理和执行该准则并不是要创建一个大型"AI警察"。

"相反,"他继续说,"它将是一个混合国家监督与本地责任的共享系统。食品药品监督管理局(FDA)、国立卫生研究院(NIH)和国家卫生信息技术协调员办公室(ONC)等联邦机构将制定标准,但医院、大学和专业团体将处理日常事务。这有点像现在质量改进或患者安全计划的运行方式——联邦指导但本地实施。这种方法在保持每个人负责的同时给了我们灵活性。"

"这个过程中最困难的部分可能不是技术,而是人和系统。"

"每个人都有不同的优先事项、激励措施和对风险的舒适度,"约翰逊说。"在开发者、临床医生、监管者和患者对'可信赖的人工智能'含义有共同理解之前,我们将不断遇到相同的问题。我们需要就共享价值观、安全检查以及如何衡量成功达成一致。一旦我们做到这一点,技术部分就会顺理成章。"

他强调,医疗保健的变革不会一夜之间发生,并估计在未来两三年内,通过试点项目、认证模型和共享指标,进展将变得明显。

主要风险与伦理问题

报告指出的主要风险和伦理问题包括:

• 数据和算法中的偏见

• 隐私和安全漏洞

• 模型漂移和缺乏透明度

• 将人类特征、情感或意图归因于AI以及过度依赖AI

• 对AI益处获取的差异

关于差异问题,约翰逊表示,目前还没有一个系统来识别和测量医疗保健中使用的AI中的偏见。

需要偏见度量标准

"有些工具可以检查数据和算法的公平性,但它们不一致且未被广泛使用,"约翰逊说。"缺失的是一个从数据收集到决策在护理中应用的整个过程中测量偏见的标准方法。报告呼吁国家度量标准和独立认证,使偏见检测成为常规,就像质量或安全检查一样。"

约翰逊在《JAMA健康论坛》上单独撰写了一篇文章,反对在系统完全无偏见之前延迟AI使用——他将这种情况描述为不现实的,鉴于公平性评估的"新兴和挑战性"性质。相反,他强调:

• 在开发、集成和部署的整个过程中嵌入公平工作,而不是等待完美的公平性。

• 在特定的、特征明确的情境中谨慎实施AI,以便可以积极监控偏见和性能。

• 根据现实世界的反馈迭代完善系统,并持续重新审视有关公平性的关键问题。

该《论坛》文章的结尾引用了马克·吐温的话:"领先的秘诀是开始行动",强化了它推荐的务实立场——以有节制的、收集证据的方式推进实施,确保持续监测公平性,而不是等到消除所有偏见后再部署。

【全文结束】

大健康

猜你喜欢

  • 加州大学戴维斯分校健康中心将共同主导1600万美元研究 探究人工智能在解读乳腺X光检查中的作用加州大学戴维斯分校健康中心将共同主导1600万美元研究 探究人工智能在解读乳腺X光检查中的作用
  • 5个信号表明急救医疗服务已准备好迎接人工智能5个信号表明急救医疗服务已准备好迎接人工智能
  • 解锁医疗未来:人工智能、数据与以患者为中心的体验解锁医疗未来:人工智能、数据与以患者为中心的体验
  • 解锁医疗保健未来:人工智能、数据与以人为本的体验解锁医疗保健未来:人工智能、数据与以人为本的体验
  • 解锁医疗保健的未来:人工智能、数据与以人为本的体验解锁医疗保健的未来:人工智能、数据与以人为本的体验
  • 解锁医疗保健未来:人工智能、数据与以人为本的体验解锁医疗保健未来:人工智能、数据与以人为本的体验
  • 医疗保健与人工智能:现状与未来展望医疗保健与人工智能:现状与未来展望
  • 解锁医疗保健的未来:人工智能、数据和以人为中心的体验解锁医疗保健的未来:人工智能、数据和以人为中心的体验
  • 临床医生警告医疗人工智能工具潜在缺陷临床医生警告医疗人工智能工具潜在缺陷
  • 2025年FDA推动激进透明化的全面解读2025年FDA推动激进透明化的全面解读
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康