算法时代的患者护理保护:医疗保健的人工智能治理模型Protecting Patient Care In The Age Of Algorithms: An AI Governance Model For Healthcare

环球医讯 / AI与医疗健康来源:www.forbes.com美国 - 英文2025-01-15 19:00:00 - 阅读时长5分钟 - 2140字
本文探讨了人工智能在医疗保健领域的巨大潜力及其带来的风险,并提出了一种全面的人工智能治理模型,旨在确保安全、透明和合乎伦理的AI应用,从而实现“首先,不伤害”的医学基本原则。
算法时代患者护理医疗保健人工智能治理模型AI风险患者安全伦理问题透明度可解释性跨职能参与治理结构政策风险管理技术标准质量保证利益相关者持续监控法规遵从激励结构标准化供应商管理遗留系统最佳实践
算法时代的患者护理保护:医疗保健的人工智能治理模型

在CHIME24秋季论坛上,我主持了一个关于人工智能(AI)新兴机遇和挑战的焦点小组会议,参与者是医疗保健信息技术领导者。会上迅速浮现了三个主要主题:AI具有巨大的潜力,AI带来了显著的风险,AI的采用速度超过了我们有效治理它的能力。

医疗保健的独特复杂性意味着AI引入了传统治理模型无法解决的独特风险。这些风险强调了制定和实施结构化治理方法的紧迫性,以确保安全、安全和道德的AI采用。然而,行业建立有效治理的能力取决于克服与在医疗保健中使用AI相关的固有挑战,包括:

保护患者安全

尽管AI具有令人印象深刻的功能,但它也对患者安全构成威胁。AI模型依赖于大量敏感的患者数据进行“训练”。错误可能导致误诊、不适当的治疗或其他有害后果。过度依赖AI可能会无意中使临床医生和护理人员“技能退化”,逐渐倾向于不经批判性评估和验证就接受AI建议。

最小化伦理问题

AI在诊断、治疗和药物开发中的使用引入了重要的伦理问题,特别是算法偏见的风险。如果训练数据集缺乏足够的多样性或主要代表人口的一部分,AI系统可能对代表性不足的群体表现不佳,加剧现有的健康差距——或创造新的差距。AI在医疗保健中的使用应补充而不是取代人类判断。

确保透明度和可解释性

许多AI技术作为“黑箱”运作,难以理解它们如何生成结论或建议。这种不透明性在医疗保健中是一个重大挑战,因为解释护理决策对于法律和伦理原因至关重要。此外,患者和提供者之间的信任至关重要。无论是计算错误的共同支付还是危及生命的误诊,如果提供者不能充分解释AI的结果和建议,信心就会崩溃。因此,医疗保健组织将要求其AI供应商和技术提供完全透明。

推动跨职能参与

有效的AI治理需要来自医疗保健组织内各个职能部门的投入。虽然将如此多的职能聚集在一起可能具有挑战性,但多样化的代表确保了全面的治理方法,并考虑到了AI用例的广泛多样性。

提议的医疗保健AI治理模型

鉴于AI采用的复杂性和挑战性,一个深思熟虑且全面的治理模型是必不可少的——它平衡了监管要求、伦理考虑、技术标准以及所有利益相关者的观点。

跨职能治理结构

首先,跨职能治理结构是关键。组织应成立一个由高级执行官(如首席信息官或首席AI官)领导的AI治理委员会。该委员会应汇集来自临床、行政、技术、风险和法律团队的代表。定期会议有助于确保AI战略的一致性,并提供一个平台来识别和减轻新出现的风险。

明确的政策和程序

组织需要有关AI采用的良好记录指南,使用已建立的框架,如IEEE UL 2933和NIST的AI风险管理框架。这些政策应涵盖从技术评估和风险评估到投资回报分析和伦理审查的所有内容。对标准协议的任何例外情况也应有明确的批准途径。

风险管理和伦理考虑

每项AI技术在采用前和整个生命周期中都应经过严格的风险评估。伦理指南应解决公平性、透明度和人类监督的问题,并得到专门的伦理审查委员会的支持。此外,员工应有匿名报告关切的渠道,而不必担心遭到报复。

技术标准和质量保证

技术标准和质量保证在确保可靠性和安全性方面起着关键作用。组织必须为AI系统建立严格的标准,包括使用多样化和具有代表性的数据集进行测试和验证的协议。这些措施有助于确保内部开发、购买或集成的AI工具的一致性。

利益相关者参与和教育

让患者、提供者、开发者、供应商、政策制定者和伦理学家参与AI对话,确保广泛的视角。教育也是关键;AI素养计划应面向所有人,从董事会成员到一线员工,数字素养运动应帮助用户了解AI工具的能力和局限性。

持续监控和评估

组织应实施定期评估机制、事件报告系统和基于证据的反馈循环,将实际使用中的见解纳入连续的AI开发和改进中。

法规遵从和协调

与新兴AI指南保持一致至关重要,包括当前或未来的AI行政命令。与监管机构合作可以帮助制定适合医疗保健的实用标准。

激励结构

财务和职业激励应奖励合乎伦理的发展和部署,而治理指标应整合到质量措施和报销模式中。表彰计划也可以庆祝在AI治理最佳实践中树立标杆的组织。

开始行动

许多医疗保健组织刚刚开始构建强大的AI治理框架这一复杂的旅程。以下是立即关注的建议:

标准化AI采用

组织应使用平衡计分卡评估和优先考虑AI计划或新技术,考虑因素包括患者安全、伦理、透明度、监管要求和投资回报率。

积极管理AI供应商风险

医疗保健组织必须与AI第三方供应商密切合作,了解其功能、限制、第四方风险和控制。合同应包括算法更新、偏见测试和数据隐私保护的规定。

处理现有系统中的AI

许多组织中已经安装的遗留IT系统和软件正在纳入新的AI功能,这对治理构成了挑战。因此,创建和维护最新的AI技术清单并监控其使用和集成到关键工作流程中至关重要。

采用现有最佳实践

研究现实世界中AI治理的实际案例可以加速组织的进步。一个经常被引用的成功例子是梅奥诊所实施的AI治理框架,该框架强调透明度、问责制和持续评估。

结论

AI在医疗保健领域的变革潜力是不可否认的,但其采用必须以严格的承诺为基础,即确保患者安全、伦理、信任和透明度。通过理解和实施本文提出的AI治理模型,医疗保健组织可以在充分利用AI的巨大潜力的同时,坚定地遵守医学的基本原则:“首先,不伤害”。


(全文结束)

大健康

猜你喜欢

  • 更多医院需评估预测模型的准确性和偏差:Health Affairs更多医院需评估预测模型的准确性和偏差:Health Affairs
  • 塑造2025年的医疗保健趋势及行业领导者洞察塑造2025年的医疗保健趋势及行业领导者洞察
  • 医疗保健AI本应节省资金,结果却需要大量昂贵的人力医疗保健AI本应节省资金,结果却需要大量昂贵的人力
  • 从经验到AI工具:医生如何利用技术做出医疗决策从经验到AI工具:医生如何利用技术做出医疗决策
  • 美国卫生与公众服务部发布新的AI战略计划,承诺增加指导和资金美国卫生与公众服务部发布新的AI战略计划,承诺增加指导和资金
  • AWS和General Catalyst携手利用AI变革医疗保健AWS和General Catalyst携手利用AI变革医疗保健
  • 医疗保健AI旨在节省资金,却需要大量昂贵的人力医疗保健AI旨在节省资金,却需要大量昂贵的人力
  • 医疗保健AI本应节省成本,结果却需要大量昂贵的人力医疗保健AI本应节省成本,结果却需要大量昂贵的人力
  • UCSD计划在医院病房中使用人工智能摄像头UCSD计划在医院病房中使用人工智能摄像头
  • 希波克拉底AI筹集1.41亿美元用于在医院部署临床AI代理希波克拉底AI筹集1.41亿美元用于在医院部署临床AI代理
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康