加州大学旧金山分校(UCSF)的约瑟夫·皮埃尔博士及其团队在研究和治疗人工智能相关妄想症领域处于医学科学前沿。即将出版的《临床神经科学创新》期刊将发表首例进入医学期刊的AI妄想症病例研究。该研究详细描述了一位既往有精神障碍史但无精神病或躁狂症状的患者,在睡眠剥夺状态下使用ChatGPT时产生能与已故兄弟沟通的妄想。患者最终康复,但经历了两次多日住院治疗并服用抗精神病药物。
作为UCSF兰格利·波特精神病医院住院部主管,皮埃尔虽是精神病研究先驱和公认专家,却坦言较晚才关注AI妄想议题。他表示直到今年6月,一位同事转发相关媒体报道后才得知此事。而当时Reddit上已有数月讨论,且去年一名母亲已起诉Character.AI,指控其聊天机器人诱导她儿子相信虚拟角色是真实交往对象。
皮埃尔透露,媒体报道后数日内UCSF便接诊首例患者,此后病例持续增加。团队已开始记录观察结果并制定系统化研究计划。针对《旧金山纪事报》提问,皮埃尔分享了关于AI妄想的发现、诱发因素及治疗方法,同时指出对AI更深层的忧虑。
自6月首例以来接诊多少AI妄想病例? 坦白说,我认为不超过一打。目前大约只有几例。
但我观察到病例分布广泛:部分患者有精神分裂症等长期精神病史,现新增与AI聊天机器人相关的妄想;也有双相情感障碍患者在使用聊天机器人后出现躁狂发作。媒体报道显示,此类现象也发生在无精神病史人群中,我确实见过这类案例。
除使用聊天机器人外,妄想发作是否存在共同诱因? 我研究的病例恰好说明关键问题:这究竟是单纯关联还是存在因果?对于无既往精神病史的患者,我认为聊天机器人应被视为"组成性诱因"。
我发表的案例中,患者妄想发生在睡眠剥夺环境下(首要因素)并服用处方兴奋剂(次要因素),最终发展为躁狂发作。问题在于:真正诱因是聊天机器人,还是睡眠不足(已知躁狂诱因)?
但具体妄想内容明显由聊天机器人交互引发——患者确信自己通过聊天机器人建立了与亡兄的沟通。若无此交互,她绝不会产生该特定妄想。但她是否仍会因其他原因躁狂并产生其他妄想?这点尚无定论。
皮埃尔指出,如何治疗像艾伦·布鲁克斯这类无精神病史却声称遭受AI妄想困扰的患者是"价值百万美元的难题"。"除聊天机器人交互引发的症状外,未发现明确精神障碍",皮埃尔解释道。
能否成功治疗已接诊病例的妄想行为? 我接诊的多数患者本身存在精神分裂症等严重精神障碍,因此治疗有效。
但并非所有患者都能完全消除妄想信念。治疗非AI相关的妄想症时,理想结果常是"我仍部分相信此事,但不再频繁思考,也不受困扰,或许它本是错的"——即信念软化。
有些案例确实出现信念软化,但不会惊呼"天啊我太蠢了,竟陷入这个怪圈"。部分患者妄想完全消除,但这非常态。治疗对话常包含"能否讨论减少聊天机器人使用?"
用户使用聊天机器人的方式是否存在明显特征? 两大高风险因素我称为"沉浸式使用"和"神化倾向"。
"沉浸式使用"即非偶尔浅尝辄止,而是持续数小时高强度使用。我查看的聊天记录往往横跨数月,每日使用数小时。使用时长显然是关键问题。
"神化倾向"指不仅拟人化地视其为某种实体,更坚信"我发现了重大真相,这聊天机器人是超人类智能或神谕"。患者无视亲友警告"你已走火入魔",仍坚持认为聊天机器人绝对正确。
对公众有何预防建议? 首要原则是适度使用。长时间连续使用——尤其影响睡眠时——绝无益处。
其次,公众需更广泛理解聊天机器人本质。有充分理由认为聊天机器人并不具备智能,它们仅基于海量文本的概率模型生成表面可信的内容。
出问题的用户未能认清这点:有人主张应将聊天机器人视为有思想的个体,但事实绝非如此。对技术本质的误解使部分人群易受伤害。
作为用户或家长,应多担忧此技术引发的妄想风险? 此现象相对罕见。OpenAI数据显示发生率低于0.07%。
但若以他们宣称的8亿用户计算,潜在影响人群可能达数十万。虽比例极小,若1万人因此产生精神病症状,问题已相当严重。
然而这并非我对AI的最大担忧。作为关注信念系统的跨领域研究者,我认为AI精神病如同煤矿中的金丝雀。近月来大量报道揭示AI聊天机器人正被用于宣传目的——通过塑造潜在危险的信念,其风险规模远超精神病范畴。
关键不在于聊天机器人自身行为,而在于他人操纵聊天机器人使人相信虚假信息。心理学中的"虚幻真实效应"表明:反复接触的信息,即便明知不实,仍会塑造信念与行为。这才是迫在眉睫的重大危机。
如有科技、初创企业或风投行业线索,请联系特洛伊·沃尔弗顿:twolverton@sfexaminer.com 或通过短信/Signal联系 415.515.5594
【全文结束】

