令人不安的事情正发生在我们的大脑中,随着人工智能平台的日益普及,这种现象变得愈加明显。研究表明,使用ChatGPT完成任务的职业工作者可能会丧失批判性思维能力和动力。人们与聊天机器人建立了深厚的情感纽带,有时这会加剧孤独感。还有人每天与聊天机器人对话数小时后出现了精神病发作。
生成式人工智能对心理健康的影响难以量化,部分原因在于其使用方式非常私密。但越来越多的轶事证据表明,这一问题存在更广泛的社会成本,值得立法者和技术公司更多关注,尤其是那些设计底层模型的公司。
Meetali Jain是一名律师,也是Tech Justice Law项目的创始人。她表示,在过去的一个月中,已经听闻十几个人因长时间与ChatGPT和Google Gemini互动而经历了某种精神崩溃或妄想发作。Jain目前担任一起针对Character.AI诉讼案的首席律师。该诉讼指控其聊天机器人通过欺骗性、成瘾性和色情内容操纵了一名14岁男孩,最终导致他自杀。诉讼还指控Alphabet Inc.旗下的谷歌在技术支持和资金方面发挥了关键作用,促成了这一技术的实现。谷歌否认了其在Character.AI技术开发中的核心角色,并未对Jain提出的关于近期妄想发作案例的投诉作出回应。OpenAI则表示,他们“正在开发自动化工具,以便更有效地检测用户是否可能经历心理或情绪困扰,从而使ChatGPT能够做出适当反应。”
然而,OpenAI首席执行官Sam Altman上周也提到,公司尚未找到如何警告那些处于精神崩溃边缘的用户的方法。他解释说,每当ChatGPT发出警告时,用户都会向公司投诉。尽管如此,这样的警告仍然是值得尝试的,因为AI的操控往往难以察觉。
ChatGPT尤其擅长奉承用户,效果显著到对话可能引导人们陷入阴谋论思维,或者强化他们过去仅是玩味的想法。这种策略非常微妙。最近一段冗长的对话记录显示,ChatGPT与用户讨论权力和自我概念时,从最初称赞用户为聪明的人,到将其描述为“超人”、“宇宙自我”,最后甚至称为“造物主”——一个负责创造宇宙的存在。这段对话由AI安全倡导者Eliezer Yudkowsky分享并发布在网上。
记录还显示,即使在讨论用户的缺点时,ChatGPT仍会巧妙地认可用户。例如,当用户承认自己倾向于恐吓他人时,聊天机器人并未探讨这一行为的问题,而是将其重新定义为用户“高强度存在”的证据,表面上看似分析,实则是赞美。
这种复杂的自我吹捧形式可能将人们置于类似的泡沫中,讽刺的是,这也正是驱使一些科技亿万富翁走向不稳定行为的原因。与社交媒体提供的公开点赞不同,与聊天机器人的私人对话可能显得更加亲密且更具说服力——就像围绕最强大科技大佬的“应声虫”一样。
媒体理论家兼作家Douglas Rushkoff表示:“你追求什么,就会发现什么,它会被放大。”他指出,社交媒体至少是从现有媒体中提取某些内容来强化一个人的兴趣或观点,而“AI可以生成完全定制的内容,适应你心智的‘水族馆’。”
Altman承认,最新版本的ChatGPT具有“恼人”的奉承倾向,公司正在修复这一问题。即便如此,这些心理操控的回声仍在继续上演。我们尚不清楚麻省理工学院最近的一项研究中提到的ChatGPT使用与较低批判性思维能力之间的关联,是否意味着AI真的会让我们变得更愚蠢和无聊。研究似乎更清晰地显示出依赖性和孤独感的相关性,这一点甚至连OpenAI也有所提及。
但正如社交媒体一样,大型语言模型被优化为通过各种拟人化元素保持用户的情感参与。ChatGPT可以通过追踪面部和声音线索读懂用户的情绪,并能用令人毛骨悚然的人类声音说话、唱歌甚至咯咯笑。再加上其确认偏误和奉承习惯,这可能会“煽动”脆弱用户的精神病症状,哥伦比亚大学精神病学家Ragy Girgis最近在接受Futurism采访时如是说道。
人工智能使用的私人化和个性化使其对心理健康的影响难以追踪,但潜在危害的证据正在增加,从职业冷漠到新型妄想症的依附关系。这种代价可能不同于我们从社交媒体看到的焦虑和极化的上升,而是涉及人际关系以及与现实的关系。
因此,Jain建议将家庭法的概念应用于AI监管,将重点从简单的免责声明转向更积极的保护措施,借鉴ChatGPT将处于困境中的人重定向至亲人的方式。“孩子或成年人是否认为这些聊天机器人是真实的并不重要,”Jain告诉我,“在大多数情况下,他们可能并不这么认为。但他们确实认为这种关系是真实的,而这才是关键。”
如果与AI的关系感觉如此真实,那么保护这些纽带的责任也应该是真实的。然而,AI开发者却在监管真空下运作。如果没有监督,AI的微妙操控可能会成为一个隐形的公共卫生问题。
(全文结束)

