麻省理工学院媒体实验室去年夏季发表的一项研究引发了关于人类大脑使用ChatGPT等工具时会发生什么的异常激烈辩论。根据阅读内容的不同,作者们将研究结果解读为认知能力悄然下降的证据,或大脑正进化为更高效系统的令人鼓舞的信号。在医学领域常有的情况是,两种解读都捕捉到部分真相,但均未讲述完整故事。
该研究本身规模有限。54名年轻成年人——主要是大学生和应届毕业生——被要求在三种条件下撰写简短的SAT风格论文:仅使用自身大脑、使用传统(谷歌)搜索引擎但不使用人工智能(AI),或使用ChatGPT。所有受试者佩戴脑电图(EEG)头戴设备以测量神经活动。结果立即引发争议:仅用大脑写作时,与记忆、语言处理和注意力相关的脑区表现出最强且最广泛的神经参与;搜索引擎使用者显示轻微下降;而ChatGPT使用者降幅最大,多个认知区域活动减少超50%。在重复实验中,依赖AI的参与者越来越频繁地复制AI生成内容,移除工具后难以回忆或引用自己写过的内容。
基于这些模式,麻省理工研究者提出了对"认知债务"的担忧——反复依赖AI处理复杂任务可能干扰学习、记忆形成和批判性思维。对许多临床医生和教育工作者而言,这种担忧确有道理。如果我们外包任务中最具认知挑战的部分,大脑将通过减少该工作来适应。神经可塑性无法区分便利与退化;它只是按当前需求重新布线。
反对观点
对研究结果的在线反应远未统一。相当一部分人认为脑电活动降低不一定表示脱离参与或能力下降。他们指出著名的神经科学类比:巅峰即兴演奏的爵士音乐家前额叶激活减弱;深度专注时的专家冥想者皮层活动更平静;经验丰富的外科医生在技术要求高的手术中常表现出反常的镇定。从这个角度看,活动减少可能反映认知经济性而非弱点,即大脑在AI处理写作机械层面时更高效地分配资源。
另一些人则基于完全不同的理由反驳:研究本身过于薄弱,不足以支持广泛结论。54名学生撰写人工考试提示,远非对人类智能未来的定论基础。脑电图虽有用,却缺乏测量高阶推理或创造力的特异性。多位批评者指出,该研究尚未经过同行评审,认为公共讨论已远超数据实际支撑范围。
第三派试图整合双方观点。这些评论者强调核心问题不在于AI好坏,而在于使用时机与方式。他们观察到学生和新手作者常在形成自身想法前就求助AI。在此条件下,AI成为思考的替代品而非增强工具。但当在生成个人想法后使用——例如作者先勾勒论点、识别疑点或反思视角时——AI能减轻焦虑、明晰结构并加速修改。换言之,问题不在AI本身,而在过早外包认知任务。
临床视角
从临床角度看,中间立场可能最接近真相。仅用大脑写作导致更强神经激活并不意外;撰写连贯论文需同时进行记忆检索、创意生成、组织和纠错。当ChatGPT处理大部分工作——建议措辞、构建段落、平滑过渡——皮层自然无需如此费力。这本身无害,恰如计算器、GPS设备和拼写检查器所见。大脑在被外包领域减少工作并将能量重新分配至他处。
更令人担忧的是长期模式。在麻省理工研究中,重复使用AI导致参与度降低、所有权感减弱和记忆更差。初期自主写作后转向AI的参与者,在整合新工具时认知努力有所提升。但那些从一开始就用AI、后被迫回归纯脑力写作的人,表现更差且神经连接弱于从未用过AI的对照组。在医学上,这称为"失用性退化"。偶尔依赖工具无害;习惯性依赖则不然。
新手-专家区分同样关键。经验丰富的临床医生拥有稳健的决策、模式识别和综合内部模型。他们使用AI时,往往将其作为第二意见、切磋伙伴或替代框架来源。相比之下,新手可能尚未具备评估、质疑或优化AI输出所需的心理结构。对他们而言,AI的 polished 语言可能伪装成真实理解。这不是技术的控诉,而是学习者的发育脆弱性——这正是专家建议需向住院医师传授资深临床医生多年习得心智技能的原因。
难怪教育工作者担忧"空白页问题"。当学生在未形成任何想法前就咨询AI助手,认知工作便从生成观点转向筛选观点。学生沦为策展人而非思考者。成果看似整洁甚至令人印象深刻,但推理、分析和自我表达的底层神经回路却未被使用或严重不足。
AI在医学中的应用启示
这并非意味着应避免使用AI,而是必须有意识地使用。一种在教育者中兴起的实用习惯很简单:在打开任何AI工具前先写一句话——仅此一句。这个锚定时刻能保持所有权感,并激活与主动性和创意生成相关的认知网络。此后才应使用AI进行批判、扩展或优化。
在临床教育中,我们可能需要正式制定类似防护措施。某些任务应明确禁止AI介入,正如我们仍要求住院医师独立解读心电图和部分影像结果。并非软件无用,而是人类必须发展认知框架来理解软件运作。我们还需评估策略,以检验推理过程而非仅看 polished 输出。口头考试、病例讨论和反思写作能揭示内部认知工作是否真实发生。
对执业临床医生而言,AI正成为重要协作者。明智使用时,它可总结证据、提供替代解释、检验假设并优化沟通。但即便对专家,指导原则不变:先思考,后工具。
麻省理工研究不应被视为明确警示信号,也不应被忽视。它提出了关于认知自主性未来的关键问题:我们愿意委派哪些思考环节,又有哪些必须保留?若AI要提升人类智能,伙伴关系必须是有意的。更安静的大脑不是问题,脱离参与的才是。
亚瑟·拉扎勒斯 (Arthur Lazarus) 医学博士、工商管理硕士是前Doximity研究员、美国医师领导力协会编辑委员会成员,以及费城天普大学刘易斯·卡茨医学院精神病学兼职教授。他著有多本叙事医学书籍及虚构系列《真实医学,虚幻故事》。其最新小说为《护理标准:医疗判断的审判》。
【全文结束】

