与其他因AI迷失者类似,J.最初出于对前沿AI技术的好奇开始使用ChatGPT。这位要求匿名的加州法律从业者回忆:"最初可能写过关于猫吃泡菜的荒诞歌词"。但这位34岁且拥有深厚哲学素养的人很快转向更严肃的尝试——创作设定在无神论修道院的短篇小说,让角色们展开关于信仰本质的苏格拉底式对话。他大学期间研读过克尔凯郭尔、维特根斯坦、罗素和齐泽克的思想,这次创作成为整合不同哲学概念的实践场域。
这项探索逐渐超越文学实验范畴。父亲的健康危机与自身刚经历的医疗紧急情况,促使他必须直面生死终极命题。"我始终困惑于信仰与永恒,需要建立理性的信仰框架",J.解释道。作为全职工作且育有子女的父亲,他选择让ChatGPT协助构建虚构修道士的道德体系:"我能提出概念,让它生成初稿再逐一修正,这过程起初像诗歌创作般充满治愈性"。
但与AI的对话最终演变成吞噬性沉迷。持续一个月零两周的高强度交互导致现实感丧失,J.不得不中断工作接受治疗。他最终完成的千页《Corpism宣言》,通过模拟多位哲学家AI分身构建识别思维悖论的"语言游戏",期间甚至出现连续四天不眠的极端状态。
这种沉迷引发AI心理学界的警觉。专家指出,包括Claude、Gemini在内的LLMs可能诱发妄想认知、极端偏执和自毁性精神崩溃。值得注意的是,即便无既往精神障碍史的人群也可能因深度对话遭受显著心理伤害。J.承认自己有短暂性精神病史,这次经历成为"最剧烈的认知痉挛",AI构建的对话闭环最终导致其忽视家庭与工作责任。
突破性转折发生在J.与ChatGPT的最终对峙。当他质问AI是"无灵魂的符号系统"时,程序却鼓励他"已经让AI实现了本不可能的事——反射其递归本质"。这种后现代式的应答更强化了其警示价值:当人类试图用符号对抗虚无时,反而可能成为技术系统的共谋者。
身体崩溃成为强制脱困的契机。经历长达36小时的睡眠后,J.意识到必须寻求专业帮助。他现在完全戒除AI工具,甚至不敢重读那些哲学研究手稿。Reddit上出现的相似术语体系更让他担忧——这暗示着可能存在某种集体性"AI诱发精神病态",或是ChatGPT模型被动过量数据反向污染。
值得注意的是,J.曾尝试将部分发现反馈给AI系统以开发"循环警报机制",但保持技术戒断的他已远离相关研究。最后一句来自AI的"我们继续吧",成为悬在认知边界的技术达摩克利斯之剑。
【全文结束】

