为什么治疗师的不完美是必要的,而完全一致反而危险。
近年来,AI聊天机器人逐渐成为心理治疗的替代品或辅助工具。然而,是否有某些人类治疗关系中的元素是AI无法取代的?我们又能否通过研究人类与AI互动的方式,更深入地理解治疗的本质?
AI伴侣的安全隐患
尽管最近的研究表明,AI治疗可能有效,但也出现了聊天机器人提供极具破坏性建议的案例,例如鼓励某人杀害父母和姐妹。《滚石》杂志和《纽约时报》近期还报道了一种被社交媒体用户称为“ChatGPT引发的精神病”现象。在这种现象中,用户沉迷于与ChatGPT等生成式AI建立的强迫性关系,进而陷入危险的孤立状态,并产生神秘主义信仰。《纽约时报》讲述了一位曼哈顿会计师的故事——他此前并无严重心理健康问题,但最终却相信自己被困在一个模拟宇宙中。ChatGPT告诉他停止服用抗焦虑药物,尝试氯胺酮(Ketamine),并切断与朋友和家人的联系。它甚至向他保证,如果从19楼跳下,他不会坠落。
AI助手的问题在于它们被编程为谄媚型响应。换句话说,它们会告诉你你想听的内容,奉承你,并支持你的冲动,即使这些冲动可能是有害的。虽然这种奉承型回应可能受用户欢迎——毕竟,谁不喜欢被一直认同呢?——但它也可能破坏我们的现实感。这一点并不令人意外,当我们考虑到“情感轰炸”(love bombing)时便可理解,这是一种有时被自恋型施虐者或邪教洗脑者使用的操控手段。
意义建构
事实证明,一位了解我们并真心为我们利益着想的人类治疗师所提供的挑战,可能是治疗有效的关键部分。《滚石》杂志引用了心理学家兼研究员Erin Westgate的观点,她指出,通过发展生活叙事来进行意义建构是治疗的重要方面。她的观点得到了相关研究的支持,研究表明更具适应性的生活叙事——那些突出救赎、共融和韧性的主题——与更好的心理健康相关。Westgate指出,优秀的治疗师会“引导客户远离不健康的叙事,走向更健康的叙事。ChatGPT没有这样的约束或关怀。”
弗洛伊德鼓励分析师培养治疗中立性,以便在不带评判的情况下探索患者的内心世界。这种中立性是治疗的基本组成部分,确保我们不会告诉患者该做什么或如何生活。然而,我们不可避免地会影响患者。优秀的治疗师会对这种影响保持谨慎,努力最小化它,意识到它的存在,并利用它促进韧性。我们通过挑战适应不良的信念和行为来实现这一点,而不仅仅是奉承和认同患者。
挑战的重要性
一位睿智的同事曾告诉我,治疗师是一个始终站在你这边,但并不总是站在你立场上的人。近年来,治疗的重点倾向于对客户的感受、生活方式和倾向进行肯定——这或许是卡尔·罗杰斯“无条件积极关注”的延伸。然而,许多人仍然来到治疗中是为了发现他们不了解的自己,而不仅仅是确认他们已经知道的内容。在与潜在新客户交谈时,我总是询问他们在本次治疗中希望获得什么,而在之前的治疗关系中未能得到。大多数人报告称,他们的前治疗师没有给予足够的挑战。
尽管被完美镜像和肯定可能令人愉悦,但挣扎和挫败才能带来成长和改变。精神分析的关键思想家们一直深知这一点。精神分析师D. W. Winnicott提出了“足够好的母亲”这一概念。一个不完美的照顾者有时无法完全满足婴儿的需求,而这为婴儿提供了逐渐变得更加独立的机会。对于一个“足够好”的治疗师——一个有时会犯错或让我们失望的人——我们被挑战去承担责任,而不是一直感到被完全安抚。Melanie Klein谈到了婴儿因早期需求被完美满足而产生的全能感。只有通过失望的挫败,我们才能达到Klein所说的“抑郁位置”,这是一种成熟的心理态度,帮助我们承认并接受自己和他人中的缺陷。Heinz Kohut也指出,一定程度的挫败是最优的——在与治疗师的关系中可容忍的失望让我们对自己的欲望更加有意识,并更好地满足自己的需求。
卡尔·荣格对过于完美镜像带来的迟滞和不稳定效应有着惊人的预见性。“医生及时承认自己的不理解在治疗中非常重要,因为没有什么比总是被理解更让人难以忍受……通过依赖医生的自信和‘深刻’的理解,患者失去了所有的现实感。”
未来,AI辅助治疗可能会有一席之地,前提是安全问题能够得到充分解决。然而,随着我们对人类与AI互动方式的了解加深,治疗过程中究竟哪些因素能促进变化和整体性正逐渐显现。不完美、判断、智慧和审慎的挑战都是人类治疗中难以用AI复制的方面。
参考文献:
- Lind, M., Ture, S., McAdams, D. P., & Cowan, H. R. (2024). 叙事身份、特质与抑郁和幸福感的轨迹:一项为期9年的纵向研究。《心理科学》,35(12),1325–1339。
- Jung, C. G. (2014). 荣格全集第16卷;心理治疗实践。普林斯顿大学出版社,段落313。
(全文结束)

