联邦政府最近在人工智能领域投入了大量精力,尝试将其应用于从医疗保健到人力资源的各个方面。与此同时,科技公司也在游说政府进一步部署先进的AI工具,例如代理式或生成式AI,而立法者则试图权衡这样做的潜在负面后果。政府还在考虑是否应对该技术设置限制。就在这一场关于AI利弊的大讨论中,麻省理工学院(MIT)的一项新研究或许为放慢AI使用的步伐提供了独特的新理由——至少需要稍微控制一下。
MIT媒体实验室的一项研究测试了不同学生群体在数月内使用AI工具(例如ChatGPT)完成关键任务(如撰写论文)后的认知功能。该研究旨在了解人们的大脑在长时间使用AI工具后会有怎样的反应。根据研究结果,答案并不乐观:那些完全依赖AI帮助撰写论文的学生表现出较弱的脑连通性、记忆力减退,以及对自己工作的掌控感减弱。简而言之,他们的大脑变得懒惰了。即使后来停止使用AI工具,这些影响仍然持续存在。
这项研究涉及来自波士顿地区五所大学的54名学生,他们全都佩戴了脑电图(EEG)头戴设备,以监测脑电波活动。在获取其思维模式和脑电波的基线数据后,学生们被分配了为期四个月的研究和撰写各种论文的任务。
为了完成论文写作目标,学生们被分为三组。第一组被告知要使用像ChatGPT这样的大型语言模型来为他们撰写论文。他们与AI互动,帮助它构建每篇论文,但所有繁重的工作都由AI完成。第二组则自己写论文,但可以使用谷歌和其他搜索引擎来帮助查找资料并引用来源。最后一组则完全采用传统方法,独立撰写论文,并且只进行手动研究,就像在图书馆中可能做的那样。EEG头戴设备会随着时间推移监测三组学生的脑部活动,以观察不同技术或写作方法如何影响他们与其基线相比的表现。
结果显示,使用谷歌进行研究的小组表现出中等程度的认知活动,而没有任何技术帮助、完全独立工作的小组表现出最高的认知活动。也许并不令人意外的是,完全依赖ChatGPT-4撰写论文的小组表现出最低的脑电波活动。事实上,随着时间的推移,他们的大脑关键区域的认知功能有所下降。顺便提一下,ChatGPT组的学生对其工作的联系也最弱:83%的学生无法回忆起他们论文中的关键点,也没有人能准确引用自己的文章内容。
MIT实验的作者表示:“在这项研究中,我们展示了学习技能可能下降的紧迫问题。大型语言模型(LLM)的使用对参与者产生了可测量的影响。尽管最初的好处显而易见,但正如我们在四个月内所证明的那样,LLM组的参与者在神经、语言和评分方面均表现得比仅靠大脑工作的对照组更差。”
更令人担忧的是,在研究结束后,仅使用AI的小组所表现出的认知能力下降和脑电波活动减少的情况仍然持续很长时间。即使在停止使用ChatGPT后,参与者的脑部活动仍然迟缓。事实证明,一旦你开始外包自己的思考工作,你的大脑并不会急于重新掌控局面。
MIT实验的报告并未建议人们停止使用AI,远非如此。实际上,ChatGPT组能够比其他两组更快地完成任务。AI工具确实可以帮助提高效率,特别是对于数据录入或总结长文档等耗时任务。但报告确实表明,我们如何使用这些工具非常重要,不仅是为了确保准确性,也是为了保持认知健康。这一建议与斯坦福大学开展的另一项关键研究相吻合,后者详细记录在他们最新发布的《2025年人工智能指数报告》中。该研究强调,始终保持人类参与是改善AI治理的关键需求。
在政府层面,解决方案可能是创建指导方针,鼓励员工在求助于AI之前先思考问题。这可以简单到在请求重写之前先草拟一个初稿,或者在让AI润色之前手动列出想法。就像大多数机构已经制定的网络安全手册或数据治理框架一样,或许也可以加入一些“认知卫生”措施,以确保人类始终处于决策环节之中。
因为虽然AI可以帮助我们更快地做更多事情,但MIT的研究警告我们,不应以彻底忘记如何做事为代价。
(全文结束)

