一项新研究质疑了当前的伦理信念,即临床医生在使用人工智能系统辅助诊断或治疗时是否有道德义务告知患者。这项由生物伦理学家约书亚·哈瑟利(Joshua Hatherley)撰写的研究将在《医学伦理学杂志》上发表,题为《临床医生是否有道德义务向患者披露其使用医疗机器学习系统的情况?》,该研究认为所谓的“披露论”缺乏令人信服的道德基础,最终可能会弊大于利。
披露论认为,临床医生必须在使用医疗机器学习(ML)系统支持决策时从伦理角度告知患者。这在伦理和法律文献中一直是一个主导立场,有时将不披露视为欺骗。哈瑟利通过批判性地审视支持这一论点的四个主要伦理论据来挑战这一共识:风险论、权利论、重要性论和自主论。
人工智能辅助决策是否对患者安全构成独特或严重的风险,从而在道德上需要披露?
支持风险论的人认为,医疗ML系统引入了显著的风险,如易受对抗性网络攻击、在实际临床环境中泛化能力差、预测过度自信以及算法偏见。然而,哈瑟利认为这些风险被夸大了。例如,对抗性攻击更可能用于金融欺诈而非临床破坏,并且可以以高精度检测到。同样,泛化能力和鲁棒性挑战应在系统投入临床使用前得到妥善解决,而不是触发患者层面的披露。虽然算法偏见确实存在,但并不比人类临床医生的隐性偏见更危险,而这些隐性偏见很少向患者披露。因此,论文认为,应对这些风险的道德责任在于开发者、医院和监管机构,而不是要求个别临床医生披露他们使用的每一种工具。
该研究还评估了不披露是否侵犯了患者的道德权利,特别是患者拒绝涉及人工智能的医疗干预的权利。如果这一权利成立,患者有权拒绝任何涉及机器学习辅助的诊断或治疗过程。然而,哈瑟利指出,这种立场既不切实际又过于宽泛。作为“理性关切”的标准如此宽泛,以至于它可以适用于许多医疗保健方面,包括非AI系统如管理式护理。如果所有可能引起理性关切的医疗实践都需要披露并提供选择退出选项,医疗系统将变得难以管理。此外,随着人工智能进一步嵌入标准诊断中,如影像学或电子健康记录,维护这一权利将需要重复的基础设施,这是许多卫生系统无法支持的。因此,基于权利的论点被认为过于宽泛且不可行,不足以证明强制披露的合理性。
了解人工智能的参与是否足以影响患者对其护理的决定,从而成为知情同意所必需的信息?
这一论点依赖于许多患者如果被告知会拒绝接受人工智能辅助护理的假设。然而,哈瑟利反驳说,人们偏好什么与什么是道德上必要的之间是有区别的。他指出,许多临床医生使用的工具,包括培训期间的记忆、同事的建议或期刊文章,都会影响决策,但并不需要披露。此外,关于患者表现出“算法厌恶”的假设在这种情况下缺乏实证依据。即使一些患者会对知道使用了人工智能工具做出负面反应,这也不自动使此类信息在道德上具有重要性。仍需采用“合理患者”标准,而算法厌恶作为一种非理性的偏见不符合这一标准。
最后一个论点关注的是患者自主权和不透明的价值观嵌入算法可能削弱临床医生和患者之间的共同决策。哈瑟利承认,某些人工智能系统嵌入了伦理价值观,例如优先考虑寿命而非生活质量。然而,只要临床医生仍然是决策者并且仅将人工智能用作指导,共同决策和自主权就不会受到损害。此外,医学教科书和临床指南中也嵌入了价值观,但并没有期望临床医生披露每一个影响其判断的因素。关于不透明性的问题,哈瑟利承认临床医生可能难以解释人工智能生成的结果。然而,这再次指向了一个系统设计问题,不透明性应在实施前解决,而不是通过披露转移给患者。如果一个人工智能工具如此不透明以至于削弱了临床医生解释其推理的能力,那么道德失败在于使用该工具,而不是未能披露其使用。
更重要的是,该研究警告说,强制披露可能会产生意想不到的后果。它可能会将道德和法律责任从系统设计者和机构转移到个别临床医生身上。它还可能造成虚假的道德清晰感,允许在透明度的幌子下继续不受控制地使用人工智能。患者可能不是因为缺乏披露而受到伤害,而是由于过早、不安全或不当部署系统而受到伤害,而披露并不能解决这些问题。
(全文结束)