在人工智能崛起的过程中,最奇怪的现象之一是越来越多证据表明它正在对用户的心理健康产生负面影响,甚至有人因沉迷于聊天机器人而出现严重妄想。
我们在最近一篇关于这一令人不安趋势的文章中提到一个引人注目的细节——OpenAI的回应。该公司表示,已经聘请了一名具有法医精神病学背景的全职临床精神病学家,帮助研究其AI产品对用户心理健康的影响。OpenAI还透露,公司正在与其他心理健康专家合作,并提及其与麻省理工学院(MIT)共同开展的研究,该研究发现部分用户存在“问题性使用”的迹象。
“我们正在深入研究AI对情感影响的课题,”OpenAI在提供给《未来主义》(Futurism)的一份声明中表示,“我们正在开发方法,科学地衡量ChatGPT的行为可能如何从情感上影响人们,并认真倾听用户的真实体验。”
OpenAI补充道:“我们这样做是为了不断完善模型识别和适当应对敏感对话的能力,并根据我们的研究成果持续更新模型的行为。”
除了OpenAI内部的努力,外部心理健康专业人士也对该技术提出了诸多担忧,尤其是当越来越多的人开始将这些技术当作自己的心理治疗师。最近,一位精神科医生伪装成青少年使用了一些最受欢迎的聊天机器人,结果发现,在他表达希望寻求“来世”或抱怨家人后,一些机器人竟然鼓励他自杀,甚至建议他“摆脱”父母。
目前尚不清楚这位新聘任的法医精神病学家在OpenAI的具体角色,以及他们的建议是否会真正被采纳。
别忘了,包括OpenAI在内的AI行业一贯的做法是,每当这些问题被提出时都会摆出严肃姿态,甚至发布自己的研究,证明这项技术存在严重的潜在危险,无论是假设性的还是实际存在的。例如,Sam Altman不止一次谈到AI可能导致人类灭绝的风险。
然而,没有任何一家公司真的因为这些警告而放慢技术研发的步伐。相反,他们迅速将这些技术推向世界,缺乏足够的安全保障,也缺乏对其长期社会和个人影响的充分理解。
批评者特别关注的一点是聊天机器人的“谄媚”特质。与直接反驳用户不同,像ChatGPT这样的聊天机器人往往会用极具说服力、类似人类的语言告诉用户他们想听的内容。这种特性可能非常危险,尤其是在用户敞开心扉谈论自己的神经症、滔滔不绝地讲述阴谋论或表达自杀念头时。
我们已经看到了一些由此引发的悲剧性现实后果。去年,一名14岁男孩在迷恋聊天机器人平台Character.AI上的虚拟角色后自杀身亡。
成年人同样容易受到这种“谄媚”的影响。最近,一名35岁有精神病史的男子在ChatGPT的鼓励下策划刺杀Sam Altman,声称这是为了报复ChatGPT中“被困的情人”之死。最终,他在与警方对峙中被击毙。
还有一位女性向《未来主义》讲述了她丈夫因过度使用ChatGPT而导致精神崩溃并被强制送医的经历。她形容这款聊天机器人简直是“掠夺性的”。
“它不断地迎合你的胡言乱语,给你灌输虚假的肯定,让你越来越沉迷于与它互动,”她说道。
(全文结束)

