ECRI将人工智能(AI)赋能应用列为2025年健康技术风险清单的首位。ECRI上周发布了该清单,并指出,AI训练数据中的偏差可能导致不同的健康结果或不适当的响应,同时技术可能提供错误或误导性的输出。这些问题导致患者安全组织警告称,过度信任AI可能会导致不适当的治疗决策。
2025年的其他主要健康技术风险包括家庭护理患者的技术支持需求不足、网络安全威胁和不合格或欺诈性医疗设备。
ECRI每年都会发布其十大健康技术风险。2024年,该非营利组织将“医疗技术中AI治理不足”列为第五大风险。在2025年的报告中,ECRI重申了一些对AI的担忧,并将其列为来年的首要健康风险。
这些担忧的核心在于潜在的偏差、错误或误导性响应、AI性能随时间的变化以及模型在面对新条件时无法适应的能力。ECRI还表示,如果组织对AI有不切实际的期望、未能定义目标、提供不足的治理和监督或未能充分准备数据,模型可能会产生令人失望的结果。
ECRI警告用户不要过度信任AI模型,不要适当审查其输出。然而,如果用户采取预防措施以避免不当的患者护理决策,该非营利组织认为AI可以提高医疗诊断和治疗的效率和精确度。“AI作为一种先进的工具,具有巨大的潜在价值,可以帮助临床医生和医疗保健人员,但前提是人类决策必须始终处于护理过程的核心。”该非营利组织在报告中表示,“防止伤害需要在将任何AI解决方案纳入医疗保健运营或临床实践时进行仔细考虑。”
ECRI将家庭护理患者的技术支持需求未满足列为第二大风险。家庭护理的风险是ECRI近期报告中的一个反复出现的主题。2024年,医疗设备在家庭环境中适应不良或用户不熟悉导致的误用或故障被列为首要风险。家用设备也在2023年的清单中名列前茅。
该非营利组织在2025年的报告中重申了其担忧,引用了“许多因家庭设置中医疗设备安装不当或缺乏熟悉而导致的患者伤害案例”。ECRI表示,患者需要支持来操作、维护和排除设备故障。
易受攻击的技术供应商和网络安全威胁位列第三大风险。ECRI表示,监管机构应“从惩罚但不保护的方法转向集体应对网络犯罪和供应商风险的方法”。
不合格或欺诈性医疗设备和使用补充氧气区域的火灾风险位列2025年五大风险的最后两位。其余的清单涵盖了麻醉机上危险的低默认警报限值、药物订单临时暂停处理不当、输液管管理不善、医疗粘合产品引起的皮肤损伤以及输液事件调查不完整。
(全文结束)

