当AI出错时,该由谁来承担责任?Who Takes the Blame When AI Gets It Wrong?

环球医讯 / AI与医疗健康来源:www.medscape.com丹麦 - 英语2026-01-09 10:37:40 - 阅读时长5分钟 - 2115字
世界卫生组织欧洲区域报告显示,仅有8%的欧洲国家制定了AI医疗错误责任认定标准,其中仅俄罗斯完全符合世卫组织标准。随着三分之二国家使用AI进行诊断,责任归属问题日益突出。专家指出,AI的"黑箱"特性、神经网络的自我适应性以及"多人参与问题"使传统责任框架难以适用,可能导致临床医生责任模糊化。欧盟《人工智能法案》虽将医疗AI列为"高风险",但具体规则要到2026-2027年才生效,各国目前主要依靠现有法律框架应对AI医疗纠纷,而瑞典的"无过错患者伤害系统"等创新机制为解决此类问题提供了新思路。
医疗AI责任WHO欧洲区域AI医疗错误责任归属患者安全法律框架责任缺口黑箱算法高风险AI无过错患者伤害系统
当AI出错时,该由谁来承担责任?

根据世界卫生组织(WHO)欧洲区域办事处发布的一份新报告,在世卫组织欧洲区域国家中,仅有四个国家(8%)制定了标准,用于确定当人工智能(AI)工具在医疗保健环境中出错或造成伤害时,谁应该承担责任。

在这些国家中,只有俄罗斯完全符合世卫组织标准的责任认定标准。西班牙、比利时和瑞典的责任认定标准存在但不完整。

报告作者写道,这一法律基础设施的缺失恰逢该地区三分之二的国家报告使用AI进行诊断,一半国家使用AI聊天机器人提供患者支持。

乌普萨拉大学(Uppsala Universitet)数字健康副教授、《机器人医生:为什么医生会让我们失望——以及AI如何拯救生命》一书的作者夏洛特·布利斯(Charlotte Blease)博士告诉《Medscape News Europe》:"AI正在飞速前进,而我们的数字素养和法律还在系鞋带。大多数国家仍然没有适当的AI医疗计划:战略文件很多,但实际投资很少。我们正在将21世纪的工具硬塞进20世纪的法律框架中。"

世卫组织欧洲区域调查的国家中,92%表示责任规则将促进AI在医疗保健中的广泛应用。十分之九的国家表示,关于透明度、可验证性和可解释性的指导也将有所帮助。

世卫组织欧洲区域主任汉斯·克吕热(Hans Kluge)医学博士告诉《Medscape News Europe》:"缺乏明确的标准,尤其是责任认定方面的标准,会带来现实挑战。临床医生可能会因为担心法律后果而对依赖AI犹豫不决,或者过度依赖AI,假设系统会承担责任。这两种情况都会增加患者安全风险。"

世卫组织欧洲区域的报告基于2024年6月至2025年3月期间从世卫组织欧洲区域53个成员国中的50个收集的调查数据。

如何确定责任归属?

布达佩斯技术与经济大学(Budapest University of Technology and Economics)科学哲学与历史系副教授米哈伊·赫德(Mihály Héder)博士告诉《Medscape News Europe》,为医疗保健中的AI制定责任标准的关键问题在于责任缺口。

他说:"做出决定的系统不是一个具有法律问责能力的主体,因为社会不认为它是一个道德主体,这种观点可能会长期存在。责任因此需要分配给其他地方,而这种重新分配绝非易事。"

布利斯表示,医疗保健中的AI错误不会产生单一的罪魁祸首,而是系统开发者、部署该系统的医院以及使用该系统的临床医生共同承担责任。挑战在于确定各方承担责任的程度。

克吕热补充说,神经网络和深度学习模型会随着时间的推移而适应,这使得难以应用传统的产​​品责任框架来追究其原始开发者的责任。他说,"多人参与问题"增加了复杂性,AI开发涉及众多贡献者,使得难以将伤害追溯到特定行为者。

除此之外,许多高级算法作为"黑箱"运作,这意味着临床医生和监管机构不了解输入数据如何导致临床决策,克吕热表示这会使责任认定复杂化,掩盖伤害的检测,并限制对受影响个人的补偿。

他还补充说,如果医院在选择或管理AI工具时不够谨慎,可能会面临责任。如果制造商提供明确警告并要求训练有素的临床医生操作系统,则安全操作的责任可能会转移给临床医生。

实际应用

2024年7月12日,欧盟发布了《人工智能法案》(AI Act),这是世界上首个针对AI的法律框架。它将AI医疗应用定义为"高风险",这意味着它们必须满足安全、数据质量、人工监督和透明度方面的严格标准。然而,此类高风险AI应用的确切规则要到2026年8月和2027年8月才会生效。

布利斯说:"至少在纸面上,欧洲各地的标准可能正在逐步接近,但对患者而言,现实仍然是高度本地化的;也就是说,斯德哥尔摩、都柏林或布加勒斯特的体验仍然大不相同。"

鉴于大多数国家尚未制定针对医疗保健的AI特定责任规则,法律机构可能会选择利用现有基础设施来解决AI导致的错误。布利斯表示,例如,在瑞典,AI相关案件通过其"无过错患者伤害系统"处理,该系统先补偿患者,然后再处理责任问题。

她说:"我认为需要强调的一点是:没有AI的医疗中的责任'黑箱'并不会好多少。当医疗保健中发生错误时,很少有责任追究或承认,而且这些错误经常由于人为错误而发生。"

布利斯补充了一丝乐观情绪。她指出,与人类医生相比,AI的一个优点是更容易被质询,这要归功于数字足迹和明确的技术标准。她指出,这意味着AI应用程序可用于追究人类的责任,突出显示临床医生何时忽视了指导或未能正确使用工具。

她说:"在某些方面,AI可能使双方的责任认定更加清晰。"

克吕热表示,世卫组织欧洲区域目前正在与成员国讨论医疗保健区域AI路线图的最佳前进方向。

布利斯和克吕热报告称没有相关的财务关系。

安妮·列侬(Annie Lennon)是一名医学记者。她的作品出现在Medscape医学新闻、WebMD和Medical News Today等媒体上。

【全文结束】

猜你喜欢
    热点资讯
    全站热点
    全站热文