当前备受关注的人工智能(AI)技术,尤其是那些消耗大量计算能力和电力的模型,主要基于一种称为深度学习的技术。在深度学习中,线性代数(特别是矩阵乘法)和统计学被用于从大型数据集中提取并学习模式。大型语言模型(LLMs)如谷歌的Gemini或OpenAI的GPT已经接受了大量文本、图像和视频的训练,并发展出许多能力,包括一些它们未被明确训练过的“涌现”能力(这些能力既有令人振奋的前景,也带来了一些令人担忧的问题)。现在还存在更多专门针对特定领域的版本,如图像、音乐、机器人、基因组学、医学、气候、天气、软件编码等。
这一领域的快速进展引发了预测,认为AI将“接管药物开发”,“彻底改变好莱坞讲故事的每一个方面”,甚至可能“彻底改变科学本身”(这些说法都是在过去一年内由本报提出的)。据称,AI将加速科学发现,自动化白领工作的繁琐部分,并带来目前难以想象的奇妙创新。AI有望提高效率并推动经济增长。同时,它也可能取代工作岗位,威胁隐私和安全,并引发伦理困境。AI的发展速度已经超过了人类对其运作方式的理解。
研究人员仍在努力掌握AI能做什么和不能做什么。到目前为止,更大规模的模型和更多的训练数据已被证明更有效。这鼓励了一种信念,即继续增加更多数据将使AI变得更好。研究已经探讨了“扩展定律”,这些定律展示了模型大小和训练数据量如何共同改进LLMs。但什么是更好的LLM?是能够正确回答问题的模型,还是能够提出创意想法的模型?
预测现有系统和流程将如何有效地利用AI也颇具挑战性。到目前为止,AI的力量在离散任务中最为明显。例如,给它一张暴乱人群的图片,一个为此目的训练的AI模型可以识别出其中的人脸供当局使用。给一个LLM法律考试,它的表现会比普通高中生好。但在开放性任务上的表现则更难评估。
当前的大型AI模型非常擅长生成从诗歌到逼真图像的各种内容,这些内容基于其训练数据中的模式。然而,这些模型在决定生成的内容是否有意义或在特定情况下最恰当方面表现较差。它们在逻辑和推理方面也较弱。目前尚不清楚增加更多数据是否会解锁一致的推理能力,或者是否需要完全不同的模型。有可能的是,在很长一段时间内,AI的局限性将使得人类的推理对于发挥其潜力至关重要。
在医疗保健领域,合理使用AI可以提前发现癌症,扩大服务范围,改善诊断并个性化治疗。据今年4月发表在《npj数字医学》上的一项荟萃分析显示,AI算法在这些任务上的表现优于人类临床医生。然而,它们的训练有时会导致错误,这表明人类干预的价值。例如,AI模型容易因“数据分布偏移”而加剧人类偏见;如果一个诊断模型主要用白人的皮肤图像进行训练,然后给它一张黑人的皮肤图像,它可能会出错。结合AI与合格的人类被证明是最有效的。该研究表明,使用AI的临床医生能够将正确诊断癌症的人的比例从81.1%提高到86.1%,同时增加正确告知没有癌症的人的比例。由于AI模型倾向于犯与人类不同的错误,AI-人类合作的表现已显示出超过单独的AI或人类。
在科学领域,人类可能在探索新假设方面变得不那么必要。2009年,剑桥大学的Ross King表示,他的最终目标是设计一个可以作为自主实验室或“机器人科学家”的系统。King的AI科学家Adam被设计为能够提出假设,使用其机械臂进行实验,用传感器收集结果并进行分析。与研究生和博士后不同,Adam不需要停下来吃饭或睡觉。然而,这种类型的AI系统目前仅限于相对狭窄的领域,如药物发现和材料科学。目前尚不清楚它们是否会在人类主导的研究中取得超出增量收益的成果。
几十年来,AI技术一直被用于科学领域,以分类、筛选和分析数据,并进行预测。例如,Project CETI的研究人员收集了大量鲸鱼的声音数据,然后训练了一个AI模型来确定哪些声音可能具有意义。再如,Google DeepMind开发的深度神经网络AlphaFold,经过大规模蛋白质数据库的训练,可以快速准确地预测蛋白质的三维形状,这一任务过去需要人类花费数天的时间进行仔细的实验和测量。DeepMind开发的另一AI系统GNoME旨在帮助发现具有特定化学性质的新材料(见图)。
AI还可以帮助研究人员处理大量数据,否则这些数据将令人望而却步,无论是从粒子对撞机的结果中筛选出新的亚原子粒子,还是跟上科学文献的步伐。任何人类,无论多么严谨的读者,都不可能消化所有与其工作相关的科学论文。所谓的基于文献的发现系统可以分析这些大量的文本,找到研究中的空白,将旧的想法以新颖的方式结合起来,甚至提出新的假设。然而,目前尚不清楚这种类型的AI工作是否会有益。AI可能并不比人类更善于做出意外的演绎跳跃;相反,它可能更倾向于选择通向不令人兴奋的结果的常规、熟悉的路径。
在教育领域,人们担心AI,特别是像ChatGPT这样的聊天机器人,实际上可能阻碍原创思维。根据教育公司Chegg在2023年进行的一项研究,全球约40%的学生使用AI完成学校作业,主要是写作。这导致一些教师、教授和学区禁止AI聊天机器人。许多人担心,使用这些工具会干扰通过解决难题或构建论点来发展解决问题和批判性思维技能的过程。其他教师则采取了完全不同的方法,将AI作为工具纳入作业中。例如,学生可能被要求使用ChatGPT写一篇关于某个主题的文章,然后批评它哪里错了。
除了通过点击按钮生成文本外,如今的生成式AI还可以在几秒钟内生成图像、音频和视频。这在媒体业务中具有巨大的潜力,从播客到电子游戏再到广告。AI驱动的工具可以简化编辑过程,节省时间并降低进入门槛。然而,AI生成的内容可能使一些艺术家,如插画师或配音演员面临风险。随着时间的推移,可能可以使用AI驱动的模拟人类演员或完全虚拟的演员制作整部电影。
尽管如此,AI模型目前还无法独立创造或解决问题(至少现在还不能)。它们只是复杂的软件,不具备感知或自主性。它们依赖于人类用户来调用和提示它们,然后应用或丢弃结果。AI的革命性能力,无论是好是坏,仍然取决于人类和人类的判断。
(全文结束)

