如果你认为本月的Bingo卡上不会有OpenAI告诉世界未来的ChatGPT版本将知道如何制造生物武器或新型生物威胁,那么你错了。我们可以将这一能力添加到日益增长的问题列表中,这些问题让我们对一个AI达到超级智能的未来感到担忧。
然而,情况并不像听起来那么糟糕。OpenAI现在向我们发出警告,是为了解释它正在采取什么措施来防止未来的ChatGPT版本帮助坏人设计生物武器。
OpenAI希望在教授高级生物学和化学知识给其AI模型方面保持控制,而不是确保ChatGPT永远不会接受这些数据的训练。ChatGPT对生物学和化学的理解越深入,就越容易协助人类开发新药物和治疗方案。一旦达到超级智能,更高级的ChatGPT版本可能会自行提出创新。
提供支持以创建生物武器只是一个副作用。这就是为什么OpenAI必须从现在开始确保ChatGPT不能为任何试图制造简易生物威胁的人提供帮助。
AI在健康领域的创新已经到来
我们已经看到科学家们利用当前的AI能力提出了新的治疗方法。其中一些方法使用AI来研究某些已批准的药物如何重新用于治疗罕见疾病。
我们还看到了一个AI系统通过提出理论和实验来找到一种类型的失明的治疗方法。最终,该AI发现了一种现有的眼药可以预防特定眼病中的失明。
生物威胁:显而易见的副作用
OpenAI在其新博客文章中讨论了AI改善科学发现的潜力,同时谈到了ChatGPT可能帮助制造生物武器的风险:
高级AI模型有能力迅速加速科学发现,这是前沿AI模型造福人类的众多方式之一。在生物学领域,这些模型已经在帮助科学家识别哪些新药物最有可能在人体试验中成功。很快,它们还可以加速药物发现、设计更好的疫苗、创造可持续燃料的酶,并发现罕见疾病的治疗方法,从而在医学、公共卫生和环境科学领域开辟新的可能性。
OpenAI解释说,它有一个策略来确保ChatGPT模型不能帮助那些只有基本专业知识或高度熟练的演员制造生物武器。与其抱最好的希望,不如制定并部署护栏,以防止ChatGPT在收到有害提示时帮助坏人。
OpenAI表示,从早期开始,它就与“生物安全、生物武器和生物恐怖主义以及学术研究人员”合作,以塑造其生物安全威胁模型、能力评估和模型及使用政策。
目前,它正在雇佣由AI专家和生物学专家组成的红队来测试聊天机器人,防止ChatGPT在被要求帮助进行可能导致某人制造生物武器的实验时提供帮助。
ChatGPT如何防止生物恐怖主义
OpenAI还概述了其内置到ChatGPT中的功能,以防止滥用可能导致某人获得生物武器相关帮助的行为。
AI将拒绝危险提示。对于涉及病毒学实验或基因工程等主题的双重用途请求,ChatGPT不会提供可操作的步骤。缺乏细节应该能阻止非生物领域专家采取行动。
始终在线的检测系统还将检测被认为有风险的生物相关活动。AI不会响应,并会触发手动审查。一个人类将访问该ChatGPT对话。OpenAI也可能暂停账户并对用户进行调查。在“严重情况下”,OpenAI可能会联系执法机构。
加上红队和安全控制,OpenAI有一个复杂的计划来防止这种滥用。然而,没有什么是绝对的。坏人可能会破解ChatGPT以获取有关生物武器的信息。但到目前为止,OpenAI表示其系统正在发挥作用。
ChatGPT o3是OpenAI最先进的推理AI模型之一,可能会协助此类危险威胁,但仍然“低于我们准备框架中的高能力阈值”。
什么是高能力阈值模型?
OpenAI在博客脚注中解释了什么是高能力阈值模型:
我们的准备框架定义了可能导致严重风险的能力阈值,以及特定风险指南以充分减少严重伤害的风险。对于生物学而言,达到高能力阈值的模型可以为具有基本相关培训的初级演员提供有意义的帮助,使他们能够创建生物或化学威胁。
如果一个模型达到了高能力阈值,我们将不会发布它,直到我们确信风险已被充分缓解。
该公司还在同一脚注中表示,如果未来的ChatGPT版本达到高能力阈值,可能会保留某些功能。
OpenAI并不是唯一一家在处理先进AI背景下的生物武器威胁时格外小心的公司。Anthropic宣布Claude 4增加了安全护栏,以防止AI帮助任何人制造生物武器。
接下来会发生什么
OpenAI还表示,将于今年7月举办首届生物防御峰会,探讨其前沿模型如何加速研究。政府研究人员和非政府组织将参加此次活动。
该公司还希望公共和私营部门都能提出新颖的想法,利用AI进行有益于世界的健康相关的科学研究。
(全文结束)