引言
人工智能(AI)提供了前所未有的机会,可以增强患者护理、简化临床文档并支持医疗决策过程。越来越多的医疗保健专业人士发现自己在迅速变化的法规和文档要求之间左右为难,这使他们花在最关心的患者护理上的时间越来越少。AI能否成为提供医生和其他临床医生更多机会和时间与患者相处的关键?本文深入探讨了医疗保健组织和临床医生在采用AI时必须考虑的五个关键因素和建议。
1. 患者隐私和数据安全
AI工具需要访问大量患者数据来学习并做出准确的推荐,但患者信息的保密性在医疗保健中至关重要。提供者需要持续权衡AI解决方案的好处与隐私和安全方面的固有风险。这些风险包括:数据如何共享、共享哪些数据以及合同中如何协商这些问题。软件所有者是否会返还受保护的健康信息,以及如何在AI系统将持续学习的基础上管理这一期望?医生及其工作人员应与患者进行透明沟通,说明其数据如何使用,并在可能的情况下获得适当的患者授权。
建议: 与IT和数据分析部门密切合作,确保强大的数据加密和访问控制措施,并定期审计AI系统和流程,以符合1996年《健康保险流通与责任法案》(HIPAA)和其他相关法规。仔细审查合同和业务伙伴协议,确定AI系统将共享和保留哪些受保护的健康信息。在使用AI时对患者保持透明,并在必要时获得适当的同意和授权。
2. AI辅助文档的准确性和可靠性
在医疗保健中开发和采用AI工具需要大量的关注和资源,包括对AI开发、定制和测试阶段的严格控制和检查。合规部门在确保AI系统符合监管标准和最佳实践方面发挥着关键作用,从而保护医疗保健提供者和患者。不准确的AI生成文档可能导致严重的后果,如误诊、不当治疗计划和其他患者安全问题。因此,医疗保健提供者必须仔细审查和验证AI生成的文档,以防止这些风险。持续监测和质量保证对于维护AI工具的完整性和可靠性至关重要。AI有潜力通过简化临床文档和支持医疗保健提供者来革新医疗保健。然而,临床决策的责任始终应由人类专业人士承担。
建议: 在AI工具集成到临床环境之前,应在受控环境中进行严格的测试,以识别和缓解潜在问题,确保AI在各种条件下准确可靠地运行,并能有效支持医疗保健提供者而不危及患者安全。建立持续监测的节奏,包括定期审计、性能评估和基于最新医学知识和监管指南的AI工具更新,以识别和解决任何新兴问题,确保AI始终是医疗保健提供者的可靠支持工具。
3. 偏见和公平性
使用AI可能会无意中延续甚至加剧训练数据中存在的偏见,导致患者护理的差异。应让包括伦理学家、合规专家和临床专家在内的多学科团队参与AI工具的开发和监督。即使是由AI做出的护理相关决策,也可能对患者的预后和福祉产生深远影响。最近,医疗保险优势计划(MA)使用AI进行护理的做法受到了医疗保险和医疗补助服务中心(CMS)的审查。根据最终规则CMS-4201-F关于覆盖标准和利用管理要求:
- MA计划可以使用算法或AI来协助做出覆盖决定。然而,负责AI使用的必须符合关于医疗必要性决定的规定,这些规定包括基于特定患者的个体情况而不是不考虑患者需求的数据集来做决定;
- 算法或AI工具应与覆盖条款保持一致。AI不能用于随时间改变覆盖标准,预测算法或软件工具不能应用未公开的内部覆盖标准;并且
- 所有MA计划都应特别注意《平价医疗法案》(ACA)第1557节的反歧视要求,该要求禁止在某些活动和健康项目中进行歧视。2024年的最终规则“健康项目和活动中的反歧视”于2024年4月26日由美国卫生与公众服务部(HHS)最终确定。该规则更新了ACA第1557节,禁止在联邦资助的健康项目和服务中基于种族、肤色、国籍、年龄、残疾或性别的歧视。该规则适用于接受联邦援助的健康保险发行者,包括医疗保险C部分和D部分付款、州医疗补助机构以及在健康保险市场和其他健康覆盖下注册的人。1 计划必须确保工具不会延续现有偏见或引入新的偏见。2
建议: AI工具的质量取决于其训练数据的质量,因此在训练AI模型时应使用多样性和代表性数据集,以减少偏见。定期审查AI决策过程和结果,以识别和纠正任何偏见。训练数据中的固有偏见可能导致有偏见的AI输出,这在医疗保健中可能有严重的影响。例如,来自存在未被认识的种族或性别偏见时期的训练数据可能导致AI系统延续这些偏见。人类专业人士必须参与AI工具的开发和训练,以识别和缓解这些偏见,确保公平和准确的AI输出。
4. 透明度和可解释性
AI在简化临床文档和支持医疗保健提供者方面的潜力令人鼓舞。然而,AI不能孤立运作。文档、诊断和治疗的责任始终应由医疗保健提供者承担,AI仅作为辅助工具。尽管AI系统功能强大,但它们并非无懈可击。它们需要人类医疗保健提供者的专业知识和判断,以确保准确性和患者安全。医疗保健专业人员必须在临床决策中拥有最终发言权,利用AI作为支持工具而非替代人类互动。AI在简化临床文档方面的准确性和可靠性至关重要,这在很大程度上依赖于彻底的测试和人类监督。这一点在美国总统拜登最近发布的《安全、安全和值得信赖的人工智能发展和使用行政命令》中有所体现,其中写道:“最终,AI反映了构建它、使用它和它所基于的数据的原则。”3
建议: 提供商应优先使用提供一致理由的可解释AI工具。此外,医生应接受充分培训,以解释AI生成的文档并向患者传达其依据。缺乏透明度可能会侵蚀信任,阻碍患者对AI辅助文档的接受。
5. 法律和伦理责任
随着AI在临床文档和决策中扮演越来越重要的角色,医疗保健组织必须考虑责任如何分配。知情同意是在临床实践中整合AI面临的最直接挑战之一。特别是当AI使用“黑箱”算法时,这些问题尤为难以回答,这些算法可能是不可解释的机器学习技术,临床医生很难完全理解。AI健康应用程序和聊天机器人越来越多地用于饮食指导、药物依从性、健康评估和分析可穿戴传感器数据。这些用途引发了关于用户协议和知情同意的伦理问题。
建议: 确定当临床医生无法完全解释AI的诊断/治疗建议时,他们可能需要披露的信息的透明度要求。确保每个组织制定明确的政策和指南,界定AI系统和人类医疗保健提供者的角色和责任。确保这些政策有效地传达给所有利益相关者。
结论
AI整合的伦理影响复杂而多面。在利用AI的巨大潜力的同时,维持伦理标准、患者权利和社会公平至关重要。AI有潜力通过优化临床文档和允许医生花更多时间与患者相处来改善患者护理,推动技术驱动的以患者为中心的护理模式。这一挑战需要医疗保健领导者、法律顾问和其他利益相关者的共同努力,以确保AI以最高伦理和专业标准整合到医疗保健实践中。解决这五个关键领域——患者隐私和数据安全、AI辅助文档的准确性和可靠性、偏见和公平性、透明度和可解释性、法律和伦理责任——对于医疗保健中负责任地采用AI至关重要,最终将使患者、医生和更广泛的医疗保健系统受益。
(全文结束)

