美国医疗保健AI监管分歧加剧:黑皮书调查揭示多利益方立场差异
华盛顿特区/ACCESS新闻专线/2025年7月23日 黑皮书研究机构今日发布的一项全国性快照调查显示,医疗机构、技术供应商和医疗消费者对人工智能监管存在显著立场差异。这项研究涵盖90名医院、医疗系统和保险机构的AI专业人士,24位医疗AI企业高管,以及300名美国消费者的观点。
黑皮书研究总裁道格·布朗表示:"医疗行业正在加速采用人工智能,但监管体系未能同步发展。这项快照调查凸显了多方协作的紧迫性,需要在确保患者安全、伦理使用和信任的同时推动负责任的创新。"
关键发现
患者安全与临床验证
- 73%医疗机构从业者认为当前AI工具在未经充分临床验证的情况下已在临床场景部署
- 仅16%技术供应商持相同担忧
- 89%消费者支持对用于诊断、风险评估或护理方案的AI技术实施强制性政府测试审批
透明度与知情同意
- 80%医疗机构从业者承认患者通常未被告知AI参与诊疗决策
- 仅8%技术供应商支持强制披露AI干预的监管要求
- 92%消费者要求获知AI参与护理情况,97%表示无法接受未经人工复核的临床决策
法律责任认定
- 85%医疗从业者指出AI导致患者伤害时责任界定不清
- 96%技术供应商认为责任应由使用机构承担
- 77%消费者认同无论第三方软件参与情况,医疗机构应对AI错误负责
算法偏见与健康公平
- 89%医疗机构从业者认为AI系统存在延续种族、性别或社会经济偏见的风险
- 仅14%技术供应商承认这是系统性问题
- 96%弱势群体消费者担忧算法偏见,88%支持临床部署前实施强制偏见测试
美国监管体系缺口
- 40%医疗机构从业者认为联邦监管不足以保障临床AI安全
- 93%受访者所在机构处于无医疗AI监管指导的州
- 仅7%技术供应商支持加强联邦监管
- 92%消费者支持设立国家医疗AI监管机构
网络安全与数据治理
- 79%医疗机构从业者担忧医疗AI工具缺乏足够网络安全保护和数据治理透明度
- 仅13%技术供应商认为需要增加网络安全措施
- 98%消费者担忧AI系统收集使用个人健康数据,特别是涉及第三方分析平台的情况
全球监管对比观察
中国
- 在医疗系统中AI部署领先,但缺乏国家层面的算法透明度要求
- 公立医院常在无独立验证情况下部署AI系统
- 患者数据隐私法规有限且执行不力,特别是在大型政府项目中
欧盟
- 即将实施的人工智能法案将医疗AI列为高风险类别
- 要求强制风险评估、性能文档、偏见缓解测试和算法透明度
加拿大与澳大利亚
- 依赖广义医疗设备法规,具体AI监管细则仍在制定中
拉美与非洲
- 公共卫生和远程医疗中AI应用增加,但缺乏统一监管框架
道格·布朗总结:"医疗AI开发者、临床使用者和患者群体之间的立场明显错位。在各行业AI监管趋于宽松的政策趋势下,医疗领域必须采取差异化策略。由于涉及生命安全,前线工作者和公众的紧迫诉求不容忽视。"
关于黑皮书研究
作为独立医疗市场研究机构,黑皮书研究以无偏见洞察和数据完整性著称。过去15年已收集超过300万条医疗从业者有效反馈,涵盖医生、护士、管理者和IT专家。机构专长于快照调查、纵向研究及医疗技术、运营和临床转型的深度基准分析。通过专家小组、在线调查和现代数据采集工具,为医疗行业各利益相关方提供实时可操作洞见。多项研究报告免费提供给医疗机构、保险商和政策制定者,以消除供应商影响并促进技术决策的透明评估。
【全文结束】

