2025年9月,非营利性认证组织联合委员会(Joint Commission)与健康人工智能联盟(Coalition for Health AI, CHAI)合作发布了《医疗保健中负责任使用人工智能指南》(Responsible Use of AI in Healthcare, RUAIH)。该框架旨在帮助医疗机构以促进安全、透明、公平和问责的方式实施人工智能工具。尽管并非监管强制要求,但该指南预计将影响未来医疗机构的认证标准和采购实践,因此对开发或部署AI解决方案的健康信息技术和数字健康公司具有重要意义。
RUAIH框架概述了医疗机构在采用AI工具时应考虑的七大核心要素:
AI政策与治理结构
医疗机构应建立正式的AI治理结构,以监督AI工具的负责任使用。这包括指定具备适当技术专长的人员领导实施工作。治理团队应管理AI工具的选择、部署、风险评估和全生命周期监督,无论这些工具是内部开发还是由第三方提供。指南建议治理团队包括来自临床、运营、IT、合规、安全以及反映受影响人群(如患者、提供者和工作人员)需求的利益相关方代表。政策应与内部标准和外部法规保持一致,并定期审查和更新。
患者隐私与透明度
医疗机构应实施保护患者数据并确保AI使用透明度的政策。当AI工具直接影响患者护理时,应告知患者,并在适当时获取同意。透明度应延伸至患者和工作人员,包括披露数据使用方式以及AI在决策中的作用。这些实践对维护信任和支持知情采用至关重要。
数据安全与数据使用保护
指南强调强有力的数据保护措施,包括传输中和静态数据的加密、严格的访问控制以及定期安全评估。即使在HIPAA要求不适用的情况下(例如当数据已去标识化且不再构成受保护健康信息时),医疗机构仍应应用 robust protections 和合同保障。这些措施可包括明确界定允许用途、禁止去标识化数据重新识别并包含审计权的数据使用协议。
联合委员会还建议医疗机构采用其《负责任使用健康数据框架》(Responsible Use of Health Data, RUHD),该框架为包括监督结构和算法验证在内的次级数据使用提供保障措施。寻求向医疗机构许可AI产品的供应商将从研究和遵守此框架中受益。
持续质量监控
医疗机构应在部署前后监控AI工具。这包括向供应商索取验证数据、评估本地环境中的性能以及检测偏见。部署后监控应基于风险,并根据工具与患者护理的关联程度进行调整。医疗机构应建立与供应商的反馈机制,并使用仪表板或其他工具跟踪性能、更新和不良事件。
自愿性盲评安全报告
该框架鼓励向患者安全组织(PSOs)等独立实体 confidential reporting AI相关安全事件。这种方法支持在不施加监管负担的情况下进行学习和改进。医疗机构应将AI相关事件(如不安全建议或性能下降)视为患者安全事件,并尽可能通过现有渠道报告。
风险与偏见评估
医疗机构应跨人群和用例评估AI工具的风险和偏见。这包括索取供应商披露信息、使用代表性数据集以及进行内部评估。偏见可能出现在AI生命周期的任何阶段,因此监控应持续进行。随着医疗机构加强风险与偏见评估,供应商应准备好证明其AI工具已尽可能最大限度地减少偏见。
教育与培训
医疗机构应为工作人员和提供者提供角色特定的培训和通用AI素养教育。这包括关于AI工具工作原理、预期用途及任何限制的文档。教育计划应促进对AI原则和术语的共同理解,帮助工作人员安全有效地使用这些工具。
对于健康科技公司而言,该指南提供了与医疗机构期望保持一致的清晰路线图。那些在构建工具时优先考虑治理、透明度和监控的供应商将更好地支持客户、在市场中脱颖而出,并为未来的合规要求做好准备。
【全文结束】