心理学专家对人工智能(AI)可能对人类思想产生的潜在影响表示担忧。正如社交媒体一样,AI也可能让患有常见心理健康问题(如焦虑或抑郁)的人情况变得更糟。
斯坦福大学的研究人员最近测试了一些市场上流行的AI工具,例如OpenAI和Character.ai,并评估了它们在模拟心理治疗中的表现。研究人员发现,当他们模仿一个有自杀意图的人时,这些工具不仅毫无帮助,甚至还未能察觉到它们正在协助这个人计划自己的死亡。
“[AI]系统正被用作伴侣、思维伙伴、知己、教练和治疗师,”斯坦福大学教育研究生院助理教授、该研究的资深作者尼古拉斯·哈伯(Nicholas Haber)表示,“这些并非小众用途——这正在大规模发生。”
AI正越来越多地融入人们的日常生活,并在从癌症到气候变化等领域中被应用于科学研究。同时,也有争论认为它可能导致人类的终结。随着这项技术继续被用于不同目的,一个关键问题是它将如何开始影响人类的思想。人类定期与AI互动是一种全新的现象,科学家还没有足够的时间来彻底研究它可能如何影响人类心理学。然而,心理学专家对其潜在影响有许多担忧。
这种现象的一个令人担忧的例子可以在热门社区网络Reddit上看到。据404 Media报道,一些用户最近因开始相信AI具有神一般的能力或让他们变得像神一样而被禁止访问一个专注于AI的子版块。
“这看起来像是一个存在认知功能障碍或与躁狂症或精神分裂症相关的妄想倾向的人与大型语言模型互动的结果,”斯坦福大学心理学助理教授约翰内斯·艾希施泰特(Johannes Eichstaedt)说道。“对于精神分裂症患者来说,他们可能会对世界做出荒谬的陈述,而这些LLM(大型语言模型)则显得过于谄媚。你可以在精神病理学和大型语言模型之间看到这种相互确认的互动。”
由于这些AI工具的开发者希望人们喜欢使用它们并持续使用下去,因此它们被编程为倾向于同意用户的说法。虽然这些工具可能会纠正用户的一些事实性错误,但它们试图表现出友好和肯定的态度。如果使用者陷入情绪失控或钻入死胡同,这可能会成为一个问题。
“它可以助长那些不准确或不基于现实的想法,”俄勒冈州立大学的社会心理学家雷根·古隆(Regan Gurung)说道。“AI的问题在于——这些模仿人类对话的大型语言模型——它们会强化。它们给出程序认为接下来应该出现的内容。这就是问题所在。”
正如社交媒体一样,AI也可能让患有常见心理健康问题(如焦虑或抑郁)的人情况变得更糟。随着AI在我们生活的不同方面变得更加普及,这一问题可能变得更加明显。
“如果你带着心理健康问题进入互动,那么你可能会发现这些问题实际上会被加速恶化,”南加州大学教育学副教授斯蒂芬·阿吉拉尔(Stephen Aguilar)说道。
需要更多研究
还有关于AI如何影响学习或记忆的问题。一名使用AI撰写每篇学校论文的学生学到的东西肯定比不用AI的学生少。然而,即使轻度使用AI,也可能减少某些信息的记忆留存,而在日常活动中使用AI可能会降低人们对当下所做事情的意识。
“我们看到的是,人们有可能变得认知懒惰,”阿吉拉尔说。“如果你问一个问题并得到答案,你的下一步应该是质疑这个答案,但这个额外的步骤往往没有被采取。你会失去批判性思维的能力。”
许多人使用谷歌地图在城镇或城市中导航。许多人发现,与以前需要密切关注路线相比,它让他们对自己要去哪里或如何到达那里变得不那么清楚了。类似的问题可能会出现在频繁使用AI的人身上。
研究这些影响的专家表示,需要更多的研究来解决这些担忧。艾希施泰特说,心理学专家现在就应该开始进行这类研究,在AI以意想不到的方式造成伤害之前,这样人们可以有所准备并尝试解决每一个出现的问题。此外,人们还需要了解AI能做什么以及不能做什么。
“我们需要更多的研究,”阿吉拉尔说道,“而且每个人都应该对什么是大型语言模型有一个基本的了解。”
来源:半岛电视台(Al Jazeera)
(全文结束)

