医学影像领域正在经历一场由人工智能(AI)快速集成带来的变革。这一演变需要明确的决策协议,以建立信任并确保临床应用的成功。这一转型的一个关键组成部分是可解释人工智能(XAI),它致力于使AI系统更加透明、可解释和可靠,适用于诊断和预后应用。最近在XAI方面的进展有望显著影响医学影像系统处理和传递数据的方式。然而,仍然存在一些挑战,包括伦理考虑、跨多种成像模式的可解释性,以及XAI系统与临床工作流程和法规的对齐。
本研究主题旨在探索最新的XAI方法在医学影像中的应用,解决AI部署系统中对清晰度和可靠性的迫切需求。我们欢迎涉及以下主题的文章:
- 医学图像分类和分割的可解释性方法
- 多模态成像和数据融合中的可解释性方法
- 用于医学影像诊断的显著图和基于注意力的机制
- XAI系统在临床实践中的伦理考虑和可信度
- 临床工作流程中人机交互和协作的框架
- 在医疗保健中部署XAI的法律和监管合规性影响
- 可解释医学影像AI中的鲁棒性和不确定性量化
- 用于提高临床医生对AI决策理解的高级可视化技术
- 序列医学影像任务中的可解释深度强化学习
- 用于医学影像中可解释关系建模的图神经网络
- 针对量子增强医学影像应用的可解释性技术
- 生成式AI方法及其在医学影像中的可解释性
- 可解释医学影像AI中的偏差检测、公平性和透明度
- 临床验证和评估指标,用于医学诊断中的可解释AI方法
(全文结束)