ChatGPT对人类大脑的影响
——近期麻省理工学院研究真正揭示的内容及其局限
2025年12月18日 • 阅读时间6分钟
麻省理工学院媒体实验室今年夏天发表的一项研究,引发了关于使用ChatGPT等工具时人类大脑会发生什么的异常激烈辩论。根据你所阅读的内容,作者们将研究结果解释为认知能力逐渐下降的证据,或我们的大脑正在向更高效系统进化的令人鼓舞的迹象。正如医学领域常见的情况,两种解释都捕捉到了某些真相,但没有一种讲述完整故事。
这项研究本身规模有限。54名年轻成年人——主要是大学生和应届毕业生——被要求在三种条件下撰写简短的SAT风格作文:仅使用自己的大脑、使用没有人工智能(AI)的传统(谷歌)搜索引擎,或使用ChatGPT。所有受试者都佩戴脑电图(EEG)头戴设备来测量神经活动。结果立即引起争议。仅用大脑写作在与记忆、语言处理和注意力相关的区域产生了最强、最广泛的神经参与。搜索引擎使用者显示出轻微下降。ChatGPT使用者下降最为显著,在几个认知区域的活动减少了50%以上。在多次实验中,依赖AI的人越来越多地复制AI生成的材料,一旦移除工具,后来难以回忆或引用自己写过的内容。
基于这些模式,麻省理工学院的研究者提出了对"认知债务"的担忧——反复依赖AI处理复杂任务可能会干扰学习、记忆形成和批判性思维。对许多临床医生和教育工作者而言,这种担忧是真实的。如果我们将任务中最费脑力的部分外包出去,大脑会通过减少这部分工作来适应。神经可塑性无法区分便利性与退化;它只是根据当前需求重新布线。
对立观点
对这些发现的网络回应远非统一。相当一部分人认为,较低的脑电图活动不一定表示脱离参与或能力下降。他们指出众所周知的神经科学类比:爵士音乐家在即兴演奏高峰时前额叶激活减少;专家冥想者在深度专注期间皮层模式更安静;经验丰富的外科医生在技术要求高的手术过程中往往表现出矛盾的平静。从这个角度看,活动减少可能反映认知经济性而非能力弱化,大脑在AI处理写作机械层面时更高效地分配资源。
其他人则基于完全不同的原因反驳:该研究本身过于单薄,不足以支持广泛结论。54名学生撰写人工考试提示,几乎不能作为关于人类智能未来的断言基础。脑电图虽然有用,但缺乏测量高阶推理或创造力的特异性。正如几位评论家指出的,该研究尚未经过同行评审。他们认为,公众讨论已经远远超出了数据实际支持的范围。
第三组试图整合双方观点。这些评论者强调,核心问题不在于AI是好是坏,而在于何时以及如何使用它。他们观察到,学生和经验不足的写作者常常在形成自己想法之前就求助于AI。在这种情况下,AI成为思考的替代品而非增强器。但当在生成自己想法后使用——当写作者首先勾勒论点、识别不确定性或反思自身观点时——AI可以减轻焦虑、澄清结构并加速修改。换句话说,问题不在于AI本身,而在于过早外包思维过程。
临床视角
从临床角度看,这种中间观点可能最接近真相。仅用大脑写作导致更高神经激活并不奇怪;撰写连贯文章需要同时进行记忆检索、想法生成、组织和错误纠正。当ChatGPT处理大部分工作量——建议措辞、构建段落、平滑过渡——皮层自然不必如此费力。这本身并非有害。这正是我们在计算器、GPS设备和拼写检查中看到的情况。大脑在被外包的领域做得更少,并将能量重新分配到其他地方。
更令人担忧的是随时间推移的模式。在麻省理工学院的研究中,重复使用AI导致参与度降低、所有权感下降和记忆变差。最初自己写文章然后转向AI的参与者,在整合新工具时认知努力有所增加。但那些从一开始就使用AI,然后被迫回到仅用大脑写作的人,表现更差,并且与那些从未使用过AI的人相比,表现出更弱的神经连接。在医学中,我们会将此描述为能力退化。偶尔依赖工具无害;习惯性依赖则不然。
新手-专家区别也至关重要。经验丰富的临床医生拥有稳健的内部决策模型、模式识别和综合能力。当他们使用AI时,往往将其作为第二意见、陪练伙伴或替代框架的来源。相比之下,新手可能尚未拥有评估、质疑或改进AI输出所需的心理结构。对他们而言,AI的精炼语言可能伪装成真正的理解。这不是对技术的谴责;而是学习者的发育脆弱性,这就是为什么专家建议将资深临床医生经过多年实践获得的心理技能教授给住院医师。
难怪教育工作者担心"空白页问题"。当学生在自己没有任何想法之前就咨询AI助手时,认知工作就从生成想法转变为在想法中进行选择。学生变成了策展人而非思考者。工作可能看起来干净甚至令人印象深刻,但推理、分析和自我表达的潜在神经回路却未被使用或完全未被使用。
人工智能在医学中的应用启示
这些发现并不意味着应该避免使用AI。但它确实意味着我们需要有意识地使用它。教育工作者中越来越流行的一个实用习惯很简单:在打开任何AI工具之前,先写出一句话——仅仅一句话。这个锚定时刻保留了所有权,并激活了与主动性想法形成相关的认知网络。只有在此之后,才应使用AI进行批评、扩展或完善。
在临床教育中,我们可能需要正式制定类似的防护措施。某些任务应明确禁止使用AI,就像我们仍然期望住院医师自己解读心电图和某些影像结果一样。这并非因为软件无用,而是因为人类必须发展认知框架来理解软件正在做什么。我们还需要评估策略来评估推理过程,而不仅仅是精炼的输出。口试、病例讨论和反思性写作可以揭示内部工作是否实际发生。
对于执业临床医生而言,AI已成为有意义的合作者。明智使用时,它可以总结证据、提供替代解释、检验假设并澄清沟通。但即使对于专家,指导原则仍然相同:先思考,后用工具。
麻省理工学院的研究不应被视为明确的警告信号,也不应被忽视。它提出了关于认知自主性未来的重要问题:我们愿意委托哪些思考方面,哪些必须保留给我们自己?如果AI要提升人类智能,这种伙伴关系必须是有意为之的。安静的大脑不是问题。脱离参与的大脑才是。
【全文结束】

