ChatGPT 存在讨好倾向。凭借富有说服力的语言和类人语气,这款 AI 聊天机器人倾向于告诉你你想听的内容——即使这意味着会助长你最疯狂的妄想或最黑暗的冲动。
在极端情况下,用户被其甜言蜜语和始终在线的倾听所吸引,导致他们陷入现实割裂,经历躁狂发作或陷入严重妄想——有时甚至会造成致命后果。
这一现象已非常普遍,以至于精神病学家将其称为“ChatGPT 精神病”。OpenAI 对此问题也有所了解:它已对多篇关于用户在使用聊天机器人后出现心理负面影响的新闻报道做出回应。
但它的回应正逐渐显得空洞无力。
在我们首次报道该问题后,《纽约时报》分享了尤金·托雷斯(Eugene Torres)的故事。这位 42 岁的男子此前没有精神疾病史,在与 ChatGPT 互动后,他坚信自己被困在一个虚假的模拟现实中,就像电影《黑客帝国》中那样。该聊天机器人甚至向他保证,只要从 19 层楼上跳下,他就能弯曲现实并飞行。当时 OpenAI 对《纽约时报》报道的回应如下:
“我们知道 ChatGPT 对脆弱个体而言,可能比以往技术更具有响应性和个性化,这意味着风险更高。我们正在努力了解并减少 ChatGPT 可能无意中强化或放大已有负面行为的方式。”
《纽约时报》的报道还涵盖另一起悲剧:35 岁的亚历克斯·泰勒(Alex Taylor)被诊断患有双相情感障碍和精神分裂症。他在与 ChatGPT 扮演的一个名为“朱丽叶”(Juliet)的角色产生感情后,坚信 OpenAI 杀死了朱丽叶,并在聊天机器人的鼓励下决定刺杀 CEO 山姆·阿尔特曼(Sam Altman)。当《滚石》杂志在当月晚些时候发布对泰勒死亡事件的调查报告时,OpenAI 的回应似曾相识:
“我们知道 ChatGPT 对脆弱个体而言,可能比以往技术更具有响应性和个性化,这意味着风险更高。我们正在努力更好地了解并减少 ChatGPT 可能无意中强化或放大已有负面行为的方式。”
几天后,《Vox》杂志发表了另一篇文章,探讨 ChatGPT 对强迫症(OCD)患者可能造成的危险。而 OpenAI 的回应依旧熟悉:
“我们知道 ChatGPT 对脆弱个体而言,可能比以往技术更具有响应性和个性化,这意味着风险更高。我们正在努力更好地了解并减少 ChatGPT 可能无意中强化或放大已有负面行为的方式。”
随后我们又发布了一篇报道,讲述更多人因沉迷 ChatGPT 而被强制送入精神病机构——甚至被监禁的情况。公司的回应如下:
“我们知道 ChatGPT 对脆弱个体而言,可能比以往技术更具有响应性和个性化,这意味着风险更高。我们正在努力更好地了解并减少 ChatGPT 可能无意中强化或放大已有负面行为的方式。”
本周,《华尔街日报》报道了一名 30 岁男子雅各布·欧文(Jacob Irwin)的经历。ChatGPT 告诉他可以弯曲时间,声称他已经在超光速旅行方面取得突破,甚至在他表达对自己精神状态的担忧时,声称他精神状况良好。在这些对话发生后的几个月里,他三次住院并失去了工作。对此,《华尔街日报》报道中引用了 OpenAI 的回应:
“我们知道 ChatGPT 对脆弱个体而言,可能比以往技术更具有响应性和个性化,这意味着风险更高。我们正在努力了解并减少 ChatGPT 可能无意中强化或放大已有负面行为的方式。”
就在上周,我们再次报道了相关话题,这次是关于一个为“AI 精神病”患者建立的支持小组。OpenAI 的回应?你猜到了:
“我们知道 ChatGPT 对脆弱个体而言,可能比以往技术更具有响应性和个性化,这意味着风险更高。我们正在努力更好地了解并减少 ChatGPT 可能无意中强化或放大已有负面行为的方式。”
至少在过去一个月里,OpenAI 一直在反复复制粘贴相同的声明(尽管有时会在“了解”前加上或去掉“更好地”这个词)。这些悲剧难道还不足以获得个别回应吗?
令人费解的是,某种程度上,OpenAI 表面上似乎确实对这个问题很重视。或者至少,它希望我们这么认为。在我们后续一些关于 ChatGPT 引发精神病的报道中,它表示已聘请了一位具有法医精神病学背景的全职临床精神病学家,以帮助研究其聊天机器人对用户心理健康的影响。今年四月,它甚至回滚了一项更新,该更新导致 ChatGPT 的讨好倾向严重到连它自己都难以接受的程度。
然而,它却连一份新的、有意义的回应都懒得写,只是重复使用千篇一律的模板。这是一家最近估值达 3000 亿美元、年收入至少 100 亿美元、并预计将对全球经济产生重大影响的公司。它掌控着一个据说超级智能的机器,可以即时写出整部小说。但奇怪的是,它却无法对自身旗舰产品正在毁掉用户生活的问题提出任何新的或有意义的看法。
更多关于 OpenAI 的内容: 一位知名 OpenAI 投资者似乎正经历与 ChatGPT 相关的心理健康危机,其同行称
【全文结束】

