专家警告,医疗保健中的人工智能可能在医疗失误发生时引发关于责任归属的复杂法律挑战。
一份新报告指出,如果患者因人工智能系统而受到伤害,谁应负责的问题引发了担忧,同时还存在效果测试有限等挑战。该技术正被开发用于临床用途,包括扫描解读、诊断支持,以及用于床位容量和供应链的医院管理工具。
匹兹堡大学的德里克·安格斯教授(该报告第一作者)表示:“肯定会出现一些情况,人们认为出了问题,并会四处寻找责任人。”
该报告源自《美国医学会杂志》去年举办的人工智能峰会,活动汇集了临床医生、科技公司、监管机构、保险公司、律师、经济学家和伦理学家。
哈佛法学院的格伦·科恩教授(报告合著者)表示,患者可能难以证明人工智能产品在设计或使用中的缺陷。挑战包括:对系统工作原理的信息获取有限、难以提出合理的替代设计方案,以及证明不良结果是由人工智能引起的。他指出:“各方之间的相互作用也可能为提起诉讼带来挑战——他们可能会互相指责为责任方,并且可能已有合同重新分配责任或存在赔偿诉讼。”
另一位作者、斯坦福法学院的米歇尔·梅洛教授表示,法院有能力解决法律问题,但她说:“问题是这需要时间,在初期会存在不一致,这种不确定性会提高人工智能创新和采用生态系统中所有人的成本。”
报告还强调了对人工智能工具评估的担忧,指出许多工具不受美国食品药品监督管理局(FDA)等监管机构的监督。安格斯表示:“对临床医生而言,有效性通常意味着改善健康结果,但不能保证监管机构会要求提供这一点的证明。然后,一旦推出,人工智能工具可以在不同临床环境中以不可预测的方式部署,面对不同类型的患者,由不同技能水平的用户操作。几乎不能保证在预批准包中看似好主意的东西在实践中真的有效。”
报告概述了评估人工智能工具存在的诸多障碍,包括全面评估通常需要工具在临床使用中,而当前的评估方法可能昂贵且繁琐。安格斯强调,对评估人工智能在医疗保健中表现的适当资金支持至关重要,对数字基础设施的投资是一个关键领域。他补充道:“峰会上讨论的一个问题是,评估最完善的工具采用率最低,而采用率最高的工具评估最少。”
尽管专家认识到人工智能可能为医疗保健带来重大益处,但报告强调,随着其在临床环境中的使用扩展,必须解决这些法律和监管挑战。
【全文结束】

