随着人工智能(AI)在我们世界中的影响日益增长,阿德莱德大学正在探索技术在健康领域,特别是临床决策和解释方面可以发挥的作用。未来医疗保健杂志的一项分析评论概述了健康AI领域的一个主要挑战——解释性——并探讨了对个人特定预测的解释是否是做出良好决策的必要条件。
“关注个体层面解释的解释性领域是一个正在发展的领域,”阿德莱德大学澳大利亚机器学习研究所(AIML)的梅丽莎·麦卡登博士说。“我们对这一领域的发展前景持乐观态度,但就目前而言,要求临床决策中的预测级别解释是有问题的。”
麦卡登博士及其合著者伊恩·斯蒂德曼博士,一位来自加拿大多伦多约克大学的律师和公共政策教授,认为良好的临床决策不仅应推进护理目标,还必须具有法律上的可辩护性。
“即使使用经过充分验证且高度准确的AI工具,临床医生也必须将其判断与许多其他因素进行校准,”斯蒂德曼博士说。
麦卡登博士,一位在医院研究基金会集团担任AI伦理临床研究员、妇女儿童健康网络的AI主任,以及病童医院的兼职科学家,表示解释性有两种类型——固有解释性和事后解释性。固有解释性是指理解模型整体如何运作,而事后解释性则是指试图理解模型生成特定预测的具体方法。
“有些模型是直接可解释的,这意味着从输入到输出的操作很容易跟踪和清晰,如决策树。其他模型则更加不透明,这意味着从输入到输出的过程难以或无法精确跟踪,即使对于开发人员也是如此,”麦卡登博士说。“在健康AI领域,临床医生通常认为他们看到的热图或伴随预测的原因就是解释。这显然是许多临床医生想要的,但新的证据表明,当AI工具出错时,这可能会导致他们做出不那么准确的决定。”
他们的工作建立在AIML研究员劳伦·奥克登-雷纳博士之前的研究基础上,后者关于解释性方法局限性的论文强调了该领域的初步阶段。
麦卡登博士和斯蒂德曼博士认为,解释性本身不应成为伦理决策的一部分。临床医生需要从证据和理解中得出结论,将患者置于过程的中心,而不是AI。
“将更多的权重赋予AI工具的输出将进一步转移对患者的重视——他们的愿望、文化、背景,”斯蒂德曼博士说。“历史上,合理的判断是基于临床医生可用的所有证据和资源的总体情况,并结合患者的具体情况进行情境化。”
麦卡登博士和斯蒂德曼博士总结道,AI预测不太可能成为临床医生做出决策的唯一信息来源,尤其是其性能从未达到100%完美。“在可预见的未来,始终有必要从多个证据来源进行三角验证,以指向一个合理的决策,”麦卡登博士说。“在这种意义上,医生应考虑AI工具的输出具体贡献了整体临床图景的哪些部分。但我们始终需要以患者的愿望和最佳利益为出发点。”
麦卡登博士感谢医院研究基金会集团的资金支持。
(全文结束)

