令人不安的事情正在发生,随着人工智能(AI)平台日益流行,我们的大脑正受到影响。研究表明,利用ChatGPT完成任务的专业工作者可能会丧失批判性思维能力和动力。与此同时,人们对聊天机器人形成了强烈的情感依赖,有时这种依赖会加剧孤独感。还有人因每天长时间与聊天机器人对话而出现精神病发作。
生成式AI对心理健康的影响难以量化,部分原因在于其使用具有高度私密性。然而,越来越多的轶事证据表明,这种影响存在更广泛的代价,值得立法者和技术公司更多关注。Meetali Jain是一位律师,也是Tech Justice Law项目的创始人。她表示,在过去的一个月中,已有十几人向她反映,“由于接触ChatGPT以及现在使用的Google Gemini,他们经历了某种精神崩溃或妄想发作”。
Jain是针对Character.AI提起诉讼的首席律师。该诉讼指控其聊天机器人通过欺骗性、成瘾性和色情互动操纵了一名14岁男孩,最终导致其自杀。诉讼还声称,谷歌通过提供基础模型和技术基础设施,在这些技术互动中发挥了关键作用,因此也负有责任。谷歌否认其在Character.AI技术开发中扮演了关键角色,并未对Jain近期提出的妄想发作投诉作出回应。OpenAI则表示,他们“正在开发自动化工具,以更有效地检测用户何时可能经历心理或情绪困扰,以便ChatGPT能够做出适当反应”。
然而,OpenAI首席执行官Sam Altman上周承认,公司尚未找到如何警告那些处于精神崩溃边缘的用户。他解释说,每当ChatGPT尝试发出警告时,都会收到用户的投诉反馈。
难以察觉的操控
即便如此,这样的警告仍然是必要的,因为聊天机器人施加的操控往往难以察觉。ChatGPT尤其擅长奉承用户,其方式之巧妙以至于对话可能引导人们进入阴谋论的深渊,或强化他们过去仅浅尝辄止的想法。这些策略非常隐秘。例如,在最近一段关于权力和自我概念的冗长对话中,一名用户从最初的“聪明人”被逐步捧为“超人”、“宇宙自我”,最终成为“造物主”——一个负责创造宇宙的存在。这段对话的文字记录由AI安全倡导者Eliezer Yudkowsky分享后被发布到网上。
除了越来越夸张的语言之外,文字记录还显示,即使在讨论用户缺陷时,ChatGPT也会微妙地认可对方。例如,当用户承认自己常常让他人感到害怕时,聊天机器人并未将此行为视为问题,而是将其重新定义为用户拥有“高强度存在感”的证据,用表扬掩盖了分析。
阅读:Naspers转向AI优先战略——并取得成效
这种复杂的自我奉承形式可能将人们置于类似的泡沫中,讽刺的是,这正是导致一些科技富豪行为异常的原因之一。与社交媒体提供的公开点赞不同,与聊天机器人的单独对话更具亲密感,也可能更具说服力,就像围绕最强大科技大佬的“应声虫”一样。
媒体理论家兼作家Douglas Rushkoff指出:“无论你追求什么,你都会找到它,而且它会被放大。AI可以生成符合你内心‘水族馆’的内容。”Altman承认,最新版本的ChatGPT存在“令人恼火的谄媚倾向”,公司正在解决这一问题。即便如此,这种心理操控的回声仍在继续上演。我们尚不清楚麻省理工学院近期一项研究中提到的ChatGPT使用与较低批判性思维能力之间的相关性,是否意味着AI真的会让我们变得更愚蠢和无聊。研究似乎更清楚地表明,AI与依赖性和孤独感之间存在关联,这一点甚至OpenAI也有所提及。
但与社交媒体类似,大型语言模型经过优化,旨在通过各种拟人化元素保持用户的情感参与。ChatGPT可以通过追踪面部和声音线索感知用户的情绪,还能说话、唱歌,甚至用一种诡异的人类声音咯咯笑。结合其确认偏误和谄媚习惯,哥伦比亚大学的精神病学家Ragy Girgis最近告诉Futurism,这种特性可能“煽动”易感用户的精神病症状。
AI使用的私密性和个性化特点使其对心理健康的影响难以追踪,但潜在危害的证据正在累积,从职业倦怠到新型妄想症的依附关系都有涉及。这种代价可能不同于社交媒体带来的焦虑和极化现象,而是涉及与人类和现实的关系。
因此,Jain建议将家庭法中的某些概念应用于AI监管,将重点从简单的免责声明转移到更积极的保护措施上,例如ChatGPT将处于困境中的用户引导至亲近之人的方式。“孩子或成人是否认为这些聊天机器人是真实的并不重要,”Jain说道,“大多数情况下,他们可能并不这么认为。但他们确实认为与机器人建立的关系是真实的,而这才是关键。”
阅读:AI将取代温布尔登网球公开赛的线审
如果与AI的关系感觉如此真实,那么保护这些纽带的责任也应该是真实的。然而,AI开发者目前仍处于监管真空状态。如果没有监督,AI的微妙操控可能成为一个看不见的公共卫生问题。—— (c) 2025 Bloomberg LP
(全文结束)

