一项引人注目的研究显示,当使用野外伪装动物的图片进行训练时,用于检测脑癌影像扫描的AI工具的准确性会有所提高。这一发现展示了如何通过使用不同的数据集重新利用一个任务上训练的机器学习模型来完成另一个可能不相关的任务,这一过程被称为迁移学习。
该研究发表在《生物学方法和协议》(Biology Methods and Protocols)期刊上,首次将伪装动物的迁移学习应用于深度神经网络训练,以检测和分类肿瘤。研究人员开发的方法还揭示了AI算法如何做出决策,这可以增强医疗专业人士和患者之间的信任。
波士顿大学的首席研究员Arash Yazdanbakhsh博士解释说,AI技术的进步使得模式检测和识别更加准确,从而有助于基于影像的诊断辅助和筛查,但也需要更多地解释AI是如何完成任务的。“提高AI的可解释性可以增强人类与AI之间的沟通,尤其是在医疗专业人士与设计用于医疗目的的AI之间。”他补充道,“清晰且可解释的模型更有利于协助诊断、追踪疾病进展和监测治疗。”
AI在放射学领域显示出巨大潜力,因为在等待技术人员处理医学图像时可能会出现治疗延迟。卷积神经网络(CNNs)是强大的工具,它们使用大量图像数据集来识别和分类图像,从而学会区分和归类这些图像。尽管检测伪装动物涉及的图像与寻找脑肿瘤的图像非常不同,但两者之间存在相似之处,例如,区分混入健康组织中的癌细胞。
Yazdanbakhsh及其同事使用在线公共存储库中的磁共振成像(MRI)图像,研究了这种方法可能带来的好处。最初,两个神经网络——ExpT1Net和ExpT2Net——被训练用于检测和分类增强T1和T2 MRI图像。目标是区分健康和癌症MRI图像,确定受影响区域,并识别癌症类型。研究发现,这两个网络在正常脑图像上的表现几乎完美,仅有一两个假阴性结果,显示出其在区分癌症和正常大脑方面的强大能力。然而,这些网络在胶质瘤亚型分类方面表现较差,T1Net的平均准确率为85.99%,而T2Net略低,为83.85%。
随后,这些模型使用了一个包含近3000张清晰和伪装动物图像的数据集进行训练,这些图像分为15个类别。经过迁移训练的两个网络均实现了比未经过迁移训练的网络更高的平均准确率,尽管这种差异在ExpT2Net(从83.85%提高到92.20%)中才具有统计学意义。将伪装动物迁移学习应用于深度神经网络训练在T2加权MRI数据测试准确性方面表现出特别大的改进。尽管表现最好的提议模型比最佳标准人类检测准确率低约6%,但研究人员表示,这项研究成功地展示了这种训练范式带来的定量改进。
定性指标如特征空间分析、DeepDreamImage分析以及图像显著性图提供了对训练模型内部状态的洞察,有效地传达了网络在学习过程中认为最重要的图像区域。“这些XAI(可解释AI)方法使我们能够深入了解模型在脑癌影像数据训练过程中发生的情况,以及它与不同肿瘤类别的关联特性,提供了一种超越准确率指标的分析维度。”研究人员表示。
(全文结束)

