医疗行业领导者普遍认可人工智能提升诊疗质量的潜力,但专业患者安全机构ECRI发布警示:医疗AI应用存在严重安全隐患。该机构最新年度报告显示,人工智能连续两年位列患者安全威胁前十,2025年排名第二,仅次于患者及家属关切被忽视的问题。
ECRI总裁兼CEO马库斯·沙巴克医生指出,医疗机构缺乏有效治理结构监管AI应用。"大型医疗机构尚未建立完善的治理体系,这可能导致AI工具被滥用或误用。"他强调,医疗AI开发需回答三个核心问题:"训练数据池构成如何?是否存在内在偏见?算法透明度能否保障?"
特别值得警惕的是,当前AI模型多基于年轻白人男性数据训练,这将导致对拉美裔老年群体等特定人群诊断效能显著下降。研究显示,全美65%医院采用AI预测模型评估患者健康轨迹,但仅61%机构验证模型准确性,44%进行偏见测试。资金充足的医疗机构更可能建立系统的模型评估机制。
沙巴克警告临床决策过度依赖AI的风险:"标榜为决策支持的工具正迅速演变为实际决策主体。"美国医学会最新调查显示,医生群体AI使用率从2023年38%跃升至66%,但存在隐私风险、电子病历系统兼容性差、错误结论导致医疗事故等重大隐患。明尼苏达大学研究证实,AI工具可能内嵌种族偏见,这不仅影响诊断准确性,还将加剧医疗不平等。
ECRI建议借鉴食品营养标签制度建立AI工具透明化机制,要求披露训练数据构成、统计方法等关键信息。该机构特别呼吁联邦政府加强对标定为"决策支持"的AI工具监管,目前这类产品几乎不受任何实质性监管。专家警告,医疗AI可能导致难以追溯的医疗事故,其致死致残风险可能成为新型系统性安全威胁。
【全文结束】

