这是一项听起来像是科幻小说中的突破。斯坦福大学的一个研究团队在最近的一篇预印本论文中宣布,他们已经利用人工智能生成了病毒基因组,并据此制造出了功能性病毒颗粒。这里讨论的病毒是噬菌体,它们只感染细菌——它们不能感染人类或其他任何动物。但这项技术的应用有可能对人类社会产生重大影响。
DNA版ChatGPT?为了了解更多,我们采访了资深作者、化学工程助理教授兼进化设计实验室主管Brian L. Hie博士。
Hie告诉IFLScience:"AI在生物学领域的许多进展都发生在蛋白质层面。" 他说得没错——这类项目甚至在去年获得了诺贝尔化学奖。但Hie的实验室希望更进一步:"今年早些时候,我们开发了名为Evo 2的模型。这是一种第二代DNA语言模型。"
我们许多人可能都使用过ChatGPT或其他生成式AI工具。这些机器人能够生成接近人类语言的文本,因为支撑它们的大型语言模型已经在大量文本数据上进行了训练。DNA语言模型的工作原理类似,但它是在基因数据上进行训练的。因此,它不会输出问题的答案,而是生成DNA序列。
Hie解释说,Evo 2可以处理多达100万个DNA碱基对的输入。理论上,研究团队知道它有可能生成足够长的序列来构成一个完整的基因组——他们只是尚未在实验室中测试这种能力。但为什么从噬菌体(或科学家们通常所说的"噬菌体")开始呢?
Hie告诉IFLScience:"它们具有非常重要的历史意义。这些是Fred Sanger在70年代首次测序的DNA基因组,也是首次被合成的基因组。因此,它们也是首个生成式设计基因组的理想目标。"
还有一个实用性问题。研究团队用作模板的噬菌体ΦX174,其基因组由5000多个碱基对组成。一个人类基因组则有超过30亿个碱基对。Hie说:"实际上,噬菌体的整个基因组比某些人类基因还要短。"
这一点很重要,因为DNA合成成本相当高。噬菌体在实验室中也易于操作,而且它们的基因组已被深入研究,所以我们对它们了解很多。
如何制造病毒?
一旦研究团队让AI模型生成噬菌体基因组,他们就必须测试输出是否合理,即它生成的是否确实是可行的基因组序列。我们都听说过聊天机器人"产生幻觉"的故事……
Hie表示,他们很早就意识到自己有所发现,当时生成的序列"骗过了第一线的生物信息学工具",这些工具用于验证基因组序列是否真实。该模型"仍然肯定会产生幻觉",但研究团队开发了过滤器来剔除不可行的序列。这仍然给他们留下了足够多的合理材料,可以进入实验的下一阶段。
令我们惊讶的是,Hie解释说,这"实际上相当简单"。"论文第一作者Samuel King在使测试协议尽可能简单方面做了大量工作。"
要从充满DNA碱基的文本文件转变为实际的功能性噬菌体,首先需要合成DNA分子本身,而有公司可以为你完成这项工作。一旦你订购的小管DNA通过邮件送达,你就会进行一个反应,将线性DNA链转化为称为质粒的环状片段,这些片段对细菌更加友好。
这很重要,因为接下来的步骤是将质粒与大量大肠杆菌(E. coli)细菌结合。对细菌进行热激处理会使DNA扩散到它们的细胞内,在那里它们可以开始将其转化为蛋白质。
此时,生物学开始发挥作用。如果AI模型生成的噬菌体基因组是合法的,蛋白质将开始自我组装成噬菌体。当噬菌体继续杀死为你完成所有工作的细菌时,你就知道它已经成功了。虽然残酷,但却很优雅。
Hie解释道:"结果证明这是一个相当快速的系统,因为如果细菌死亡,那么噬菌体可能就在工作,对吧?我们实际上可以很容易地读出细菌是否死亡,因为如果液体浑浊,则有很多细菌,但如果液体清澈,则细菌可能已经死亡。"
在他们的研究中,研究团队报告了生产出16种可行的噬菌体,其中许多被发现比它们所基于的原始ΦX174更有效地杀死细菌。
这项技术未来可能走向何方?
我们已经提到了为什么噬菌体是这个实验的便捷研究对象的一些原因,但这不仅仅是出于便利性考虑。人们对噬菌体的应用有着极大的兴趣,而AI生成可能有助于解决该领域存在的一些问题。
一个主要的兴趣点是使用噬菌体治疗抗生素耐药性感染。噬菌体杀死细菌——我们能否利用这一点来帮助我们杀死正在杀死我们的细菌?
这不是一个新想法;它可以应用于农业害虫以及人类疾病,并且有些地方正在积极使用这些治疗方法。Hie告诉我们,在世界某些地区,"你可以去杂货店买到非处方噬菌体鸡尾酒疗法。"
但是,利用AI及其对生物设计的控制能力可能意味着,未来科学家可以"按需"生产用于个性化医学的噬菌体,以及已知能产生更好治疗效果的多种噬菌体菌株。
如果我们继续推进这些模型的技术,它们将对人类产生重大积极影响。
Brian L. Hie博士
Hie对这项技术充满乐观,很容易被论文中描述的令人印象深刻的成就所吸引。但这个故事还有一个需要考虑的方面:生物安全。
世界是否已为AI生成的病毒做好准备?
"我们远未准备好迎接一个人工智能可以创造功能性病毒的世界,"这是耶鲁法学院学生Tal Feldman(拥有AI和数据科学背景)和乔治亚理工学院计算机科学与生物学学生Jonathan Feldman最近在《华盛顿邮报》上撰写的一篇观点文章的开篇。
Feldman和Feldman承认斯坦福团队"采取了安全措施"——事实上,Hie及其合著者在论文的补充材料中专门包含了一个部分来解决这些问题,他们在整个过程中对安全的关注显而易见。
但是,Feldman和Feldman问道:"什么能阻止其他人利用人类病原体的开放数据来构建自己的模型?"我们是否正走向这样一个局面:不良行为者可以利用这项技术制造他们自己的致命人类病毒?
Hie告诉IFLScience:"这些模型进展非常迅速。即使我们在研究中相当安全和周到,随着模型的进步和普及,潜在的其他团队可能不会如此关注安全。"
关于未来可能采取的潜在保障措施和监管行动,Hie表示《华盛顿邮报》的文章提出了一些建议。他指出,实际上合成DNA和制造病毒可能很容易解释,但在实践中却"并非易事"。也不一定说有不良意图的人必须等待使用AI来帮助他们实现邪恶目的:"你知道,可悲的是,现在设计危险的东西实际上并不太难。"
另一方面,这项技术可以帮助我们解决的问题是人类面临的主要生存危机级别问题。如果不采取更多措施,到2050年,抗菌素耐药性预计将导致超过3900万人死亡——更好的噬菌体疗法途径可以帮助解决这一问题。
Hie总结道:"我认为潜在的收益远大于风险。我们绝对需要负责任且安全地进行这项工作,但如果我们继续推进这些模型的技术,它们将对人类产生重大积极影响。"
这篇目前正在进行同行评审且尚未发表的预印本论文可在bioRxiv上获取。
【全文结束】

