人工智能仍是患者安全的首要隐患Why AI remains a top concern for patient safety

环球医讯 / AI与医疗健康来源:www.chiefhealthcareexecutive.com美国 - 英语2025-08-19 17:48:13 - 阅读时长2分钟 - 732字
本文系统剖析了美国患者安全研究所(ECRI)对医疗AI应用的深度担忧。ECRI将AI列为2025年患者安全首要威胁第二位,揭示了医疗AI缺乏有效治理、存在数据偏见、过度依赖决策支持系统等风险。文章通过明尼苏达大学研究数据指出,65%医院使用AI预测模型但缺乏有效监管,66%医生群体存在对AI误用风险的认知困境,并特别强调种族偏见可能导致诊断准确率下降等系统性风险。
医疗AI患者安全健康隐患治理结构训练数据诊断效能临床决策隐私风险医疗不平等透明化机制政府监管
人工智能仍是患者安全的首要隐患

医疗行业领导者普遍认可人工智能提升诊疗质量的潜力,但专业患者安全机构ECRI发布警示:医疗AI应用存在严重安全隐患。该机构最新年度报告显示,人工智能连续两年位列患者安全威胁前十,2025年排名第二,仅次于患者及家属关切被忽视的问题。

ECRI总裁兼CEO马库斯·沙巴克医生指出,医疗机构缺乏有效治理结构监管AI应用。"大型医疗机构尚未建立完善的治理体系,这可能导致AI工具被滥用或误用。"他强调,医疗AI开发需回答三个核心问题:"训练数据池构成如何?是否存在内在偏见?算法透明度能否保障?"

特别值得警惕的是,当前AI模型多基于年轻白人男性数据训练,这将导致对拉美裔老年群体等特定人群诊断效能显著下降。研究显示,全美65%医院采用AI预测模型评估患者健康轨迹,但仅61%机构验证模型准确性,44%进行偏见测试。资金充足的医疗机构更可能建立系统的模型评估机制。

沙巴克警告临床决策过度依赖AI的风险:"标榜为决策支持的工具正迅速演变为实际决策主体。"美国医学会最新调查显示,医生群体AI使用率从2023年38%跃升至66%,但存在隐私风险、电子病历系统兼容性差、错误结论导致医疗事故等重大隐患。明尼苏达大学研究证实,AI工具可能内嵌种族偏见,这不仅影响诊断准确性,还将加剧医疗不平等。

ECRI建议借鉴食品营养标签制度建立AI工具透明化机制,要求披露训练数据构成、统计方法等关键信息。该机构特别呼吁联邦政府加强对标定为"决策支持"的AI工具监管,目前这类产品几乎不受任何实质性监管。专家警告,医疗AI可能导致难以追溯的医疗事故,其致死致残风险可能成为新型系统性安全威胁。

【全文结束】

大健康

猜你喜欢

  • Ramsay Health Care试点AI驱动的临床文档工具Ramsay Health Care试点AI驱动的临床文档工具
  • Lillia推出AI平台用于慢性病管理Lillia推出AI平台用于慢性病管理
  • 新研究揭示:罕见病与未确诊患者家庭使用AI的比例远超普通家庭新研究揭示:罕见病与未确诊患者家庭使用AI的比例远超普通家庭
  • 人工智能能让医疗再次以人为本吗?人工智能在同理心护理、预防职业倦怠与共情中的作用人工智能能让医疗再次以人为本吗?人工智能在同理心护理、预防职业倦怠与共情中的作用
  • 对话伦理与法律AI基因组学专家Ma'n H. Zawati对话伦理与法律AI基因组学专家Ma'n H. Zawati
  • 英国生命科学领域人工智能监管方法英国生命科学领域人工智能监管方法
  • OneMeta与LCP Transportation合作革新医疗健康多语言沟通OneMeta与LCP Transportation合作革新医疗健康多语言沟通
  • 利用环境智能革新医疗保健:生成式人工智能如何重塑临床工作流程与患者互动利用环境智能革新医疗保健:生成式人工智能如何重塑临床工作流程与患者互动
  • 波兰医生对医疗AI的采用与挑战:混合方法研究洞察波兰医生对医疗AI的采用与挑战:混合方法研究洞察
  • 美国陆军医学研究机构探索混合现实头戴设备在烧伤伤员救治中的应用美国陆军医学研究机构探索混合现实头戴设备在烧伤伤员救治中的应用
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康