2024年12月6日,《通讯生物学》(Communications Biology)发表了一项研究,来自日本九州大学和名古屋大学的研究人员创建了一个模型,该模型利用人工智能(AI)来预测类器官早期发育情况。类器官是一种微型、实验室培育的组织,能够模仿器官的功能和结构,正在革新生物医学研究。它们有望推动个性化移植的发展,更好地模拟阿尔茨海默病和癌症等疾病,以及更精确地了解医疗治疗的影响。
该模型比专业研究人员更快、更准确,有潜力提高类器官培养的效率并降低成本。研究人员集中于预测下丘脑-垂体类器官的出现。这些类器官模仿垂体腺的功能,包括生成促肾上腺皮质激素(ACTH),该激素调节压力、代谢、血压和炎症。ACTH缺乏可能导致嗜睡、厌食和其他潜在致命的并发症。
名古屋大学医学研究生院副教授、研究通讯作者Hidekata Suga表示:“在我们的实验室中,我们对小鼠的研究表明,移植下丘脑-垂体类器官有可能治疗人类的ACTH缺乏症。”
然而,研究人员面临的一个主要挑战是确定类器官是否正常发育。类器官由悬浮在液体中的干细胞形成,对微小环境变化非常敏感,导致发育和最终质量的差异。研究人员发现,在早期发育阶段广泛表达一种称为RAX的蛋白质表明发育良好,通常会导致后期分泌大量ACTH的类器官。
Suga补充说:“我们可以通过基因改造使类器官中的RAX蛋白发出荧光来追踪发育。但是,用于临床用途的类器官,如移植,不能被基因改造发出荧光。因此,研究人员必须依靠肉眼观察,这是一个耗时且不准确的过程。”
因此,名古屋大学的Suga和他的同事们与九州大学数据驱动创新倡议教授Hirohiko Niioka合作,开发了深度学习模型来完成这项任务。
Niioka解释说:“深度学习模型是一种模仿人类大脑处理信息方式的人工智能,能够通过识别模式来分析和分类大量数据。”
在发育30天时,名古屋大学的研究人员拍摄了带有荧光RAX蛋白的类器官的荧光图像和明场图像,展示了类器官在普通白光下不发光的情况。他们将1500张明场图像分为三类质量等级,基于荧光图像:A(广泛RAX表达,高质量);B(中等RAX表达,中等质量);C(狭窄RAX表达,低质量)。
之后,Niioka训练了两种复杂的深度学习模型来预测类器官的质量类别:EfficientNetV2-S和Vision Transformer,这两种模型都是谷歌为图像识别而创建的。他使用了1200张明场照片作为训练集,每类400张。
Niioka在训练后将两个深度学习模型整合为一个集成模型,以进一步提高性能。研究团队使用剩余的300张照片(每类100张)评估了优化后的集成模型,该模型在分类明场类器官图像方面的准确率达到70%。相比之下,具有多年类器官培养经验的研究人员在预测相同明场图像类别时的准确率不到60%。
Niioka补充道:“深度学习模型在各个方面都优于专家:准确性、灵敏度和速度。”
下一步是验证集成模型是否能准确分类未被基因改造以使RAX发荧光的类器官的明场图像。经过训练的集成模型在发育30天时测试了未携带荧光RAX蛋白的下丘脑-垂体类器官的明场图像。通过染色技术,他们发现被归类为A(高质量)的类器官在30天时显示出强烈的RAX表达。继续培养后,这些类器官分泌了大量ACTH。而被归类为C(低质量)的类器官则表现出较低水平的RAX和后来的ACTH。
Niioka表示:“因此,我们的模型可以根据视觉外观预测类器官早期发育的最终质量。据我们所知,这是世界上首次使用深度学习预测类器官发育的未来。”
展望未来,研究人员打算通过在更大的数据集上进行训练来提高深度学习模型的准确性。然而,即使在当前的准确度水平下,该模型对当前的类器官研究也有重要意义。
Suga总结道:“我们可以快速、轻松地选择高质量的类器官用于移植和疾病建模,并通过识别和移除发育较差的类器官来减少时间和成本。这是一场变革。”
(全文结束)

