机器学习在生物学研究中开启新大门For better or worse, machine learning is shaping biology research

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2024-12-21 02:00:00 - 阅读时长6分钟 - 2936字
本文探讨了机器学习(ML)工具在生物学研究中的应用及其带来的革命性变化,同时也指出了这些技术可能带来的风险和挑战,包括数据偏见、模型解释性不足等问题。
机器学习生物学研究健康访问AlphaFold训练数据偏差诺贝尔化学奖AI风险政策考虑
机器学习在生物学研究中开启新大门

机器学习(ML)工具是人工智能(AI)的一个子集,利用数学模型来识别输入和输出之间的模式,并经常基于新的输入进行预测。为了提高其预测能力,这些模型会接受训练数据,这些数据用于调整模型。然而,训练数据集中的问题,如偏差,可能会出现在模型的预测中。尽管基于ML的工具可以大大扩展科学家分析复杂数据的能力,但计算机如何得出其预测的实际过程通常是一个未解释的“黑箱”。

虽然ML工具已经在金融、物流和营销等领域产生了显著影响,但它们在科学研究,尤其是生物学领域的潜力尤其令人兴奋。这些工具已经改变了生物学家处理数据、设计实验和理解复杂系统的方式,为重大发现铺平了道路。但AI也带来了自身的挑战。

机器学习在生物学研究中开启新大门

鉴于我们面临的全球问题的广泛性,包括公共卫生危机和气候变化,加快和提高科学研究的速度和效率至关重要。诺贝尔图灵挑战赛的组织者之一罗斯·金教授认为,要解决这些问题,“唯一的希望是更好的技术,而AI可以帮助实现这一点。”

在生物学领域,更好的ML技术已经产生了明显的影响。某些基因编辑技术需要短DNA片段来帮助找到目标位置,而PCR(一种制造许多DNA片段拷贝的技术)使用短DNA引物来定义要复制的区域。对于这两种应用,ML工具可以利用DNA序列和实验系统的特征来预测特定DNA序列的表现。ML工具还可以预测不同DNA切割蛋白的有效性以及是否有其他蛋白会干扰DNA切割。

此外,ML可以用于分析手动分析过于繁琐的大数据集。今年5月,一个研究团队使用ML工具开发了一个人类大脑片段的重建,这是神经科学的一项巨大成就。该项目使用了约140万GB的成像数据(相当于数千部智能手机的内存),使研究人员能够了解大脑中的亚结构和细胞间的相互作用。该团队随后开发了一个免费的在线工具,供其他人分析数据以进一步推动神经科学的发现。

ML还被用于进化遗传学,帮助科学家了解过去的不同人群如何通过杂交、迁徙和选择压力演变成为我们今天看到的人群。

当然,还有蛋白质折叠。

获得诺贝尔奖的AI

近年来,另一个引起轰动的ML工具是AlphaFold。这个由DeepMind开发的算法利用构成蛋白质的构建块序列来预测蛋白质如何折叠。蛋白质折叠对于生物研究至关重要,因为蛋白质的三维结构决定了其在细胞中的功能。蛋白质的形状影响它能与哪些分子相互作用、如何执行催化反应等任务以及如何调节细胞过程。错误折叠的蛋白质还与许多疾病相关,包括阿尔茨海默病和帕金森病。通过准确预测蛋白质结构,AlphaFold使研究人员能够更快、更高效地理解这些功能。AlphaFold的结构预测比传统方法更好、更快,有可能加速医学、药物设计和基础生物学的发现。

最新版本的AlphaFold3还增加了预测蛋白质与其他分子之间相互作用结构的能力。然而,当前版本要求研究人员使用DeepMind(创建AlphaFold的公司)的网络服务器,而无法访问程序的底层代码,这引发了研究界的反对。今年5月,该团队宣布计划在六个月内向学术界开放代码,这一承诺已经兑现。即使在开放发布之前,其他科学家已经开始开发自己的AlphaFold3开源复制品。

AlphaFold对计算生物学的深远影响已经得到了2024年诺贝尔化学奖的认可。谷歌DeepMind的德米斯·哈萨比斯和约翰·乔普获得了该奖项的一半,这只是AlphaFold潜力的冰山一角。

然而,AI与生物学的结合并非一帆风顺。

依赖机器学习工具的风险

在某些情况下,例如AlphaFold2,预测结果并不总是与基于实验数据的公认模型相符,这意味着科学家需要通过后续的手动实验来验证结果。

此外,包括认知科学家M. J. Crockett博士在内的专家担心,不加选择地使用AI威胁到真正理解自然世界的核心科学目标。过度依赖AI的预测能力会使科学家产生对现象的“为什么”和“如何”的虚假理解,掩盖实际机制。当生物学家在不了解这些工具工作原理的情况下使用ML工具时,他们可能会无意中忽略这些工具的局限性,导致误解。例如,AI模型可能会过拟合数据或对输入的小变化敏感,从而产生表面上看似准确但实际上误导性的结果。这在医学等领域尤其危险,因为错误的结论可能会影响治疗或诊断。

训练数据中的偏差是另一个重大风险。尽管促进多样性和包容性的努力日益增加,但现有数据仍然反映了历史上的偏差。例如,大规模基因组数据集中欧洲血统个体的样本占主导地位。因此,基于这些数据集训练的AI可能生成对欧洲人更准确但对其他人群不太可靠的预测。这种不平衡可能会加剧健康差异,限制AI驱动发现的好处仅限于狭小的人群。

多样性不仅在训练数据中重要,在研究问题的类型中也是如此。不同类型的研究问题对不同社区具有相关性,而AI的吸引力可能会使科学家偏向追求可以使用AI的问题,而避免那些不能使用AI的问题。同样,Crockett博士指出,“一个担忧是,随着AI产品取代人类研究人员,我们在[……]多样化知识池方面取得的进步可能会倒退”,这可能会限制研究的范围和影响。

其他实际问题包括创建、训练和使用AI系统产生的大量碳足迹(例如,训练蛋白质折叠预测程序ESMFold的一个版本产生了超过100吨二氧化碳的排放量)以及失去非AI实验技术的技术知识。Crockett博士指出,虽然AI给了我们“闪亮的新玩具”,但我们“还需要保留传递给下一代科学家的方法的多样性”。

生物学中机器学习的政策考虑

随着AI的广泛应用,对其监管的呼声也日益高涨。近年来,世界各国已进入制定和执行AI相关政策的不同阶段。最近在9月,联合国发布了一份报告,强调了全球AI监管的必要性和当前监管政策的空白。

特别是在生物学研究中使用AI的具体问题上,美国国会研究服务处在2023年11月发布了一份报告,讨论了在AI工具和进步背景下关于生物安全、生物安保和基因序列信息的政策考虑。食品药品管理局下属的生物制品评估和研究中心也参与了国内和国际关于在医疗和制药行业中使用AI/ML的讨论。

然而,广泛采用和执行协议仍在进行中,各国最终会选择什么样的监管政策(如果有)尚不清楚。

随着AI和机器学习继续重塑生物学研究,科学界面临着既令人兴奋的机会,也有重大的挑战。这些工具可以彻底改变我们分析数据、设计实验和进行发现的方式——但它们不能替代人类的洞察力、好奇心和伦理判断。它们也不能治愈我们的偏见;相反,它们可能会加剧偏见和不平等。

尽管AI无疑将继续成为生物学研究的一部分,但这并不意味着应该放弃由人类驱动的科学。通过潜在的法规以及科学家们对负责任地使用AI的承诺(如《斯德哥尔摩宣言》中关于科学和社区价值观的指导原则和承诺,以及负责开发AI用于蛋白质设计的指导原则和承诺),这些工具可以在人类落后于机器的领域提供支持,同时让人类负责思考。

无论这些健康方法是否会被实施,目前还远未确定。最终,科学的未来在于将AI用作放大人类创造力的工具,而不是捷径,同时保持严格的科学标准,开辟新的发现前沿,同时控制AI的“黑箱”。

正如罗斯·金教授恰当地指出的那样:“我看不到一个科学的未来,我们会问一个黑箱会发生什么。……我希望科学是明确的。”


(全文结束)

大健康

猜你喜欢

  • 人工智能在心理健康领域的应用——用例、机遇与挑战人工智能在心理健康领域的应用——用例、机遇与挑战
  • 近六分之一的美国退伍军人经历过创伤相关的噩梦近六分之一的美国退伍军人经历过创伤相关的噩梦
  • 抗生素不会增加老年人认知衰退或痴呆的风险,新数据表明抗生素不会增加老年人认知衰退或痴呆的风险,新数据表明
  • 人工智能可在几分钟内帮助医生发现脑肿瘤人工智能可在几分钟内帮助医生发现脑肿瘤
  • 第176期:JoAnn Manson 讨论女性健康倡议、更年期及激素疗法的研究成果第176期:JoAnn Manson 讨论女性健康倡议、更年期及激素疗法的研究成果
  • 更高效学习,而非更努力:保留医学知识的循证技巧更高效学习,而非更努力:保留医学知识的循证技巧
  • 发布建议以应对医疗AI技术中的偏见发布建议以应对医疗AI技术中的偏见
  • 红酒真的有益心脏吗?尿液研究提供了新视角,但有前提条件红酒真的有益心脏吗?尿液研究提供了新视角,但有前提条件
  • Dynex 与 InCor 合作,通过量子即服务技术改变医疗AIDynex 与 InCor 合作,通过量子即服务技术改变医疗AI
  • 抗生素不会增加老年人认知衰退或痴呆的风险,新数据表明抗生素不会增加老年人认知衰退或痴呆的风险,新数据表明
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康