根据世界卫生组织(WHO)欧洲区域办事处发布的一份新报告,在世卫组织欧洲区域国家中,仅有四个国家(8%)制定了标准,用于确定当人工智能(AI)工具在医疗保健环境中出错或造成伤害时,谁应该承担责任。
在这些国家中,只有俄罗斯完全符合世卫组织标准的责任认定标准。西班牙、比利时和瑞典的责任认定标准存在但不完整。
报告作者写道,这一法律基础设施的缺失恰逢该地区三分之二的国家报告使用AI进行诊断,一半国家使用AI聊天机器人提供患者支持。
乌普萨拉大学(Uppsala Universitet)数字健康副教授、《机器人医生:为什么医生会让我们失望——以及AI如何拯救生命》一书的作者夏洛特·布利斯(Charlotte Blease)博士告诉《Medscape News Europe》:"AI正在飞速前进,而我们的数字素养和法律还在系鞋带。大多数国家仍然没有适当的AI医疗计划:战略文件很多,但实际投资很少。我们正在将21世纪的工具硬塞进20世纪的法律框架中。"
世卫组织欧洲区域调查的国家中,92%表示责任规则将促进AI在医疗保健中的广泛应用。十分之九的国家表示,关于透明度、可验证性和可解释性的指导也将有所帮助。
世卫组织欧洲区域主任汉斯·克吕热(Hans Kluge)医学博士告诉《Medscape News Europe》:"缺乏明确的标准,尤其是责任认定方面的标准,会带来现实挑战。临床医生可能会因为担心法律后果而对依赖AI犹豫不决,或者过度依赖AI,假设系统会承担责任。这两种情况都会增加患者安全风险。"
世卫组织欧洲区域的报告基于2024年6月至2025年3月期间从世卫组织欧洲区域53个成员国中的50个收集的调查数据。
如何确定责任归属?
布达佩斯技术与经济大学(Budapest University of Technology and Economics)科学哲学与历史系副教授米哈伊·赫德(Mihály Héder)博士告诉《Medscape News Europe》,为医疗保健中的AI制定责任标准的关键问题在于责任缺口。
他说:"做出决定的系统不是一个具有法律问责能力的主体,因为社会不认为它是一个道德主体,这种观点可能会长期存在。责任因此需要分配给其他地方,而这种重新分配绝非易事。"
布利斯表示,医疗保健中的AI错误不会产生单一的罪魁祸首,而是系统开发者、部署该系统的医院以及使用该系统的临床医生共同承担责任。挑战在于确定各方承担责任的程度。
克吕热补充说,神经网络和深度学习模型会随着时间的推移而适应,这使得难以应用传统的产品责任框架来追究其原始开发者的责任。他说,"多人参与问题"增加了复杂性,AI开发涉及众多贡献者,使得难以将伤害追溯到特定行为者。
除此之外,许多高级算法作为"黑箱"运作,这意味着临床医生和监管机构不了解输入数据如何导致临床决策,克吕热表示这会使责任认定复杂化,掩盖伤害的检测,并限制对受影响个人的补偿。
他还补充说,如果医院在选择或管理AI工具时不够谨慎,可能会面临责任。如果制造商提供明确警告并要求训练有素的临床医生操作系统,则安全操作的责任可能会转移给临床医生。
实际应用
2024年7月12日,欧盟发布了《人工智能法案》(AI Act),这是世界上首个针对AI的法律框架。它将AI医疗应用定义为"高风险",这意味着它们必须满足安全、数据质量、人工监督和透明度方面的严格标准。然而,此类高风险AI应用的确切规则要到2026年8月和2027年8月才会生效。
布利斯说:"至少在纸面上,欧洲各地的标准可能正在逐步接近,但对患者而言,现实仍然是高度本地化的;也就是说,斯德哥尔摩、都柏林或布加勒斯特的体验仍然大不相同。"
鉴于大多数国家尚未制定针对医疗保健的AI特定责任规则,法律机构可能会选择利用现有基础设施来解决AI导致的错误。布利斯表示,例如,在瑞典,AI相关案件通过其"无过错患者伤害系统"处理,该系统先补偿患者,然后再处理责任问题。
她说:"我认为需要强调的一点是:没有AI的医疗中的责任'黑箱'并不会好多少。当医疗保健中发生错误时,很少有责任追究或承认,而且这些错误经常由于人为错误而发生。"
布利斯补充了一丝乐观情绪。她指出,与人类医生相比,AI的一个优点是更容易被质询,这要归功于数字足迹和明确的技术标准。她指出,这意味着AI应用程序可用于追究人类的责任,突出显示临床医生何时忽视了指导或未能正确使用工具。
她说:"在某些方面,AI可能使双方的责任认定更加清晰。"
克吕热表示,世卫组织欧洲区域目前正在与成员国讨论医疗保健区域AI路线图的最佳前进方向。
布利斯和克吕热报告称没有相关的财务关系。
安妮·列侬(Annie Lennon)是一名医学记者。她的作品出现在Medscape医学新闻、WebMD和Medical News Today等媒体上。
【全文结束】

