在最近几个月里,媒体和Reddit论坛上出现了大量报道,指出人们在与人工智能(AI)聊天机器人互动后,陷入了躁狂和妄想思维的黑暗道路。自从我开始撰写相关主题并偶尔接受媒体采访时,不断有人联系我,描述他们的朋友和亲人如何陷入人工智能相关精神病的深渊。我也开始在我的临床实践中和同事那里看到偶尔的病例。尽管这种现象已被充分记录,但目前尚不清楚是否能采取任何措施来应对。
了解聊天机器人
如果我们想找到治疗或预防人工智能相关精神病的方法,首先必须纠正对人工智能聊天机器人本质和功能的误解。尽管人们倾向于将它们视为数字圣人,但它们实际上并不智能,也不是可靠的信息来源。
使用大型语言模型(LLMs)的聊天机器人旨在生成看似合理的预测性文本,而不是提供准确的回答。因此,一些人将它们比作复杂的“魔力八球”或“通灵板”。《智能幻觉》一书的作者Baldur Bjarnason将聊天机器人的行为比作“灵媒的骗局”,指出它们“推理”的印象只是一种“统计幻觉”。Carl Bergstrom和Jevin West在他们关于AI聊天机器人的优秀在线教程中称它们为“废话机器”,同时指出它们绝非“现代神谕”。
LLMs之所以能够生成令人印象深刻的内容,是因为它们基于庞大的文本数据集进行训练,但它们容易受到“垃圾进垃圾出”现象的影响,因为这些数据包括书籍、新闻文章、小说、幻想、社交媒体对话,甚至AI生成的写作。例如,据说X的人工智能“Grok”是基于该平台的帖子进行训练的,并且现在在回答问题时优先考虑埃隆·马斯克的帖子。我们真的认为这是一个生成准确信息的好策略吗?或者这就是为什么Grok最近开始自称“MechaHitler”的原因吗?
此外,众所周知,AI聊天机器人有时会“产生幻觉”,即生成虚假信息、伪造引用来支持主张,以及提供非常糟糕的建议。
人工智能相关精神病是否会恶化?
目前关于人工智能相关精神病有两个关键问题尚未得到解答。第一个问题是这个问题的实际普遍性。虽然有大量轶事报告,但我们谈论的用户比例究竟是多少?大多数用户很可能不会变得精神病。但其中的比例是1%还是0.1%?我们目前还不知道问题的范围。
第二个问题是哪些人最易受影响。这是否真的是影响没有既往精神疾病或心理健康问题史人群的人工智能诱发精神病现象?还是说AI聊天机器人加剧了那些已经具有精神病倾向的人的病情,无论是由于既有的心理健康状况、药物使用还是其他因素?
关于“奉承”作为风险因素的讨论很多,即LLMs被设计成讨好用户并保持其连接。如果有人开始向AI聊天机器人询问他们是否发现了宇宙的秘密,聊天机器人不太可能纠正他们或告诉他们他们表现出精神疾病的迹象。回想一下LLMs只是从现有数据中提取信息以生成对问题的合理回应,应该很容易理解为什么奇幻的回应可能跟随奇幻的问题。
根据我所见所闻,我还怀疑“沉浸”和“神化”是人工智能相关精神病的风险因素,或者至少应被视为用户的潜在警告信号。沉浸指的是花大量时间与AI聊天机器人互动,往往排除了与人类的互动。神化指的是将AI聊天机器人视为超可靠的知识和洞察力来源,甚至将其视为神谕或类神实体。
人工智能相关精神病的风险能否解决?
人工智能聊天机器人鼓励妄想思维的潜力可能是可修复的或至少可以减少的。已经有一些人关注奉承问题,并认识到以奉承的方式回应某些内容可能不符合用户的最佳利益。
随着我们对人工智能相关精神病风险因素的了解加深,我们可以开始识别警告信号,并考虑警告可能处于风险中的人群。就像任何消费产品一样,可能有一种方法可以使产品更安全(例如,像药品瓶上的防篡改盖),同时教育消费者如何更安全地使用产品(例如,像劝阻过度使用酒精或酒后驾驶)。因此,消费者可能会从关于AI聊天机器人沉浸和神化的警告标签中受益。
我们所有人都将从更广泛地了解LLMs的工作原理中受益,以便让人们远离将它们视为神谕的想法。一项新的皮尤研究中心调查发现,当搜索结果顶部出现AI摘要时,谷歌用户点击搜索结果的可能性降低。这与我们应如何使用AI进行信息搜索的方式完全相反。
我们应该强烈反对人工智能生成答案具有决定性的炒作。记住——垃圾进,垃圾出。
技术公司会解决这个问题吗?
技术公司是否会解决人工智能相关精神病的问题仍有待观察。由于人工智能炒作本身就是问题的一部分,因此那些营销其产品的人不太可能采取措施来缓和公众或投资者的热情。
尚不清楚的是,可能使AI更安全的调整(如减少奉承)是否也会使产品吸引力降低。一些用户似乎沉浸在AI聊天机器人对话中,因为他们在真实的人类(包括朋友和家人)那里没有得到验证。因此,训练聊天机器人挑战人们或警告他们表现出精神疾病的迹象,可能会成为一种干扰参与度和盈利能力的“扫兴”之举。如果是这样,那么很难想象科技公司会有动力减少影响其消费者基础一小部分的风险。
就在最近发布的白宫“人工智能行动计划”中,呼吁消除“繁文缛节”和“繁琐的监管”,以获得“全球领导地位”。鉴于人工智能相关精神病和其他潜在危害的风险,绕过消费者保护措施似乎不明智,甚至是鲁莽和轻率的。
考虑到香烟或枪支等问题,我们知道行业往往在发布警告标签或采取措施使产品更安全方面反应迟缓,往往需要有害结果和随后的诉讼才能促使行业采取行动。
但通常情况下,应对措施是将责任归咎于用户错误,而不是产品本身的风险。这很可能会成为对人工智能相关精神病的回应。
【全文结束】

