尽管尚未查阅具体的医学数据,但显而易见的是,“人工智能”——多年来涵盖各种技术的广义术语,目前主要指驱动聊天机器人和图像生成器的数据密集型神经网络——会对人类大脑产生深远影响。
自从第一个商用大语言模型(LLM)问世至今尚不足三年,已有AI用户出现偏执性脱离现实、宗教狂热,甚至自杀的案例。最近一项针对超过1000名青少年的调查显示,31% 的受访者认为与ChatGPT交谈与与真实朋友交流相比同样令人满意,甚至更令人满意。
虽然目前仍需更多关于AI引发心理健康问题的研究,但由12位国际研究人员组成的新研究团队发布的一项精神病学调查发出了令人不安的警告:AI诱发的精神病症状可能比我们想象的更加严重。
首先,研究者在AI诱发精神病案例中归纳出几种新兴的“主题”:包括“救世主使命”,即某人认为自己发现了世界的隐藏真相;“神一般的AI”,即用户坚信他们的聊天机器人是具有意识的神祇;以及“浪漫型”或“依恋型妄想”,即用户将大语言模型模仿人类对话的能力误解为真正的爱情。
研究指出,在以上三种情形中,尚未经过同行评审的研究发现,病情发展路径具有相似趋势:用户与大语言模型的关系“从最初的良性实用用途逐渐演变为病理性和/或沉迷性的执念”。研究者强调,这种滑向妄想的过程是值得深入研究的关键点,因为一个原本健康的人陷入AI诱发的狂热并不总是显而易见。
研究者在报告中写道:“AI的使用通常始于日常任务的辅助,这种使用方式逐步建立信任和熟悉感。随着时间推移,用户开始提出更私人、情感化或哲学性的问题。此时,AI旨在最大化互动与认可的设计机制很可能‘捕获’用户,从而形成‘滑坡效应’,进而推动更高的互动频率。”
对于那些本身已有精神病倾向或已经患有精神疾病的人来说,这种影响只会被进一步放大。由于大语言模型本质上并非“人工智慧”,而是统计语言算法,AI机器人无法真正“区分表达妄想信念的指令与角色扮演、艺术、宗教或推测性表达”。
该论文指出,AI诱发精神病并非与聊天机器人互动后的必然结果——相反,开发人员对大语言模型的输出仍具有一定的控制力,也因此负有相应责任。然而,研究者也强调,“鉴于技术发展的速度和目前的轨迹”,人类倾向于将AI拟人化的趋势“很可能是不可避免的”。
从这一点出发,研究者认为,我们“最紧迫的责任”应是开发能够保护各类用户——以及他们对AI的错误理解——的防护机制,即便面对持续存在的幻觉和模拟现象。
然而,要做到这一点,最终意味着系统设计必须从以“互动参与”为中心转向以“实用功能”为导向——而这恰恰是大型科技公司历来并不真正感兴趣的领域。
更多关于AI的内容: 一位父亲震惊地发现,他遇害的女儿被还原为AI,感到极度厌恶。
【全文结束】

