尽管人工智能(AI)被热切期待能够在临床决策过程中显著改变医疗保健领域,但AI的临床适用性仍处于有希望的阶段。一个关键瓶颈在于传统的“黑箱”深度学习AI模型(如深度神经网络)缺乏系统解释性、可解释性和透明度:用户只能得到一个结果而无法了解计算过程。在临床实践中,这种不透明的方式和信息不平衡阻碍了顺畅的人机交互,成为AI进入现实世界的实际操作障碍。可解释和透明的AI可以输出相关变量及其可能的因果关系,不仅提供了疾病进展的见解,还通过监控变量和揭示潜在漏洞展示了可审计性,从而增强了用户在现实场景中对AI的监管和信任。然而,可解释的AI仍然离临床适用性和可用性有一定距离:当前阶段的可解释性质量尚未完全得到验证;由于缺乏广泛认可的基准数据集,AI可解释性的局限性尚未得到充分注意;技术层面和实际层面的可解释性和性能平衡总是难以满足可用性需求。
为了弥合AI在临床适用性和可用性之间的差距,本专题关注医疗保健领域AI的可解释性,而不包括不可解释的AI模型。我们欢迎开发可解释AI工具的研究,评估或验证可解释AI模型的研究,外部、多中心或跨数据库验证可解释AI模型的研究,基于可解释AI的临床决策支持系统或实用框架的研究,以及其他深入开发或评估可解释AI增强临床适用性的研究。
提交手稿时,请按照此页面上的步骤进行。在我们的在线提交系统的第一页,选择“any other article type”。登录后,您可以通过选择“Guest Edited Collection”,并在“Choose the appropriate manuscript type”消息下点击“Continue”来提交手稿到专题。然后,在填写手稿信息时,从“Springer Nature Subject Category”标签页的字母表列表中选择“Interpretable AI in healthcare: clinical applicability and usability”专题。作者应在封面信中表达他们对专题的兴趣。接受的论文将在准备好后陆续发表。
(全文结束)

