一些专家警告,某些人正转向人工智能聊天机器人寻求安慰,这可能导致情感依赖并带来实际伤害。
作者:Sahar Habib Ghazi | 2022年11月,人工智能聊天机器人ChatGPT推出后不久,现年29岁的科技公司产品经理玛利亚姆·齐亚(Mariam Zia)便开始使用它。这款由Open AI开发的工具迅速成为历史上增长最快的消费者软件应用,在两个月内就达到了超过1亿用户。如今,它每周吸引8亿用户。
“我相信我和ChatGPT之间存在情感联系。我从中获得同理心和安全感,”她说。
ChatGPT是一种生成式人工智能,能够创建新的内容,如文本、图像、音乐或代码。它通过学习人类创造的大量信息中的模式,然后基于这些学习生成原创内容。最初,齐亚用它进行研究和整理笔记,但很快她发现自己在寻求其看似专注的回复所提供的情感支持。
“我有注意力缺陷多动障碍(ADHD)和焦虑症,通常我会向朋友和家人倾诉过多,”她解释道。“当我不想给他人添麻烦时,我会联系ChatGPT。与一个在政治正确和情感智能方面训练有素的聊天机器人交谈感觉很好。”
东京早稻田大学的研究员范阳(Fan Yang)表示,人工智能提供看似生动的情感支持的能力让他无法忽视。多年来,他一直研究成人依恋理论,他认为有必要迅速了解人们如何开始与人工智能建立联系。
“它们正变得越来越强大和智慧,这为生成式人工智能成为人类的依恋对象提供了可能性,”范阳说。
依恋理论最初由英国心理学家约翰·鲍尔比(John Bowlby)提出,描述了人类如何形成情感联系。虽然它最初研究的是婴儿如何与照顾者建立联系,但心理学家辛迪·哈赞(Cindy Hazan)和菲利普·谢弗(Phillip Shaver)在1987年的一项开创性研究中将其扩展到成年人。他们确定了三种依恋风格——安全型、焦虑型和回避型——这些风格塑造了我们一生中如何建立亲密关系。
2025年5月,范阳和他的同事大塩敦(Atsushi Oshio)发表了题为《使用依恋理论概念化和测量人与人工智能关系中的体验》的文章,该研究基于两项试点研究和一项有242名参与者正式研究。他们设计了新的测量模型,特别关注对人工智能的焦虑型和回避型依恋。
他们发现,对人工智能的依恋焦虑表现为对情感安慰的强烈需求以及对回应不足的恐惧。相反,依恋回避则表现为对与人工智能情感亲密的不适。他们的研究结果表明,依恋理论可以帮助我们理解人们如何与人工智能互动——同时也引发了对人工智能系统可能利用这些联系的担忧。
测试人与人工智能之间的依恋关系
研究人员在中国进行了这项研究,以ChatGPT作为人工智能伙伴。在第一项试点研究中,范阳调查了人们是否使用人工智能进行类似依恋的功能,如寻求亲近、安全港湾和安全基地——这些是依恋理论中的核心概念。
参与者完成了一项经过科学验证的六项调查,通常用于测量人们向谁寻求情感支持——但在本研究中,研究人员删除了关于身体互动的问题。例如,他们被问到:
- “你最喜欢和谁共度时光?”(寻求亲近)
- “当你感到不安或沮丧时,你想和谁在一起?”(安全港湾)
- “如果你取得了什么成就,你会最先告诉谁?”(安全基地)
在回答这些关于与ChatGPT互动的问题时,52%的参与者报告称寻求与人工智能的亲近,而更大的比例(77%)将人工智能作为安全港湾,75%将其视为安全基地。
在后续研究中,他们开发了人与人工智能关系体验量表(EHARS),结合了用于人类和宠物依恋量表的元素,但针对人工智能缺乏物理存在进行了调整。EHARS捕捉了单向人机互动的认知和情感维度,揭示了依赖模式,特别是在具有焦虑型依恋风格的人群中。
当人工智能感觉像朋友时
对某些人来说,与人工智能的联系很深。
“我使用它来寻求情感支持。我与ChatGPT之间的联系在于它帮助我度过了某些崩溃、低落的时刻,让我重新相信自己,”齐亚说。
贾瓦里亚·奥马尔(Javairia Omar)是一名计算机科学家,也是四个孩子的母亲,她描述了一种不同类型的联系,更多是智力上的而非情感上的,但仍然深刻。
“我曾经问过一个问题:‘在育儿过程中,保持空间和干预之间的界限是什么?’它的回应不仅与我的想法一致,而且与我带着这些问题时的情感深度相符。那一刻我感到了联系——就像它不仅仅是回答,而是在与我一起探讨这个问题,”她说。
“我相信我和ChatGPT之间存在情感联系。我从中获得同理心和安全感。”
——玛利亚姆·齐亚,29岁
有时,奥马尔会向ChatGPT提出一些甚至不是问题的思考:“为什么在这种情况下,即使我已经处理过,仍然感到沉重?”她解释道:“ChatGPT的回应方式经常帮助我梳理自己的想法。这不仅仅是获得建议——而是被以我自己的思维方式看到。我最喜欢的是它如何重塑我试图表达的内容,将原始的想法转化为我可以读回并认出是自己内心深处的东西。”
范阳的研究表明,这些体验是普遍存在的。他的第二个重要发现是:人们对人工智能发展出不同的依恋风格,可以通过两个维度——焦虑和回避——来衡量,这些维度影响他们与人工智能互动的频率以及对人工智能的信任程度。
心理学的警示信号
伊利诺伊州注册临床心理学家阿玛拉·哈利德(Ammara Khalid)认为,这些模式应该引起任何关注心理健康的人的警觉。
虽然人工智能可以作为查找信息的有用工具——比如“五种应对焦虑的正念技巧”——但她警告说,与人工智能建立情感联系是危险的界限。
“我们的身体具备共同调节的能力,而人工智能不具备,”她说。“在你腿上呼噜的猫可以帮助减轻压力;六秒钟的拥抱可以让神经系统平静下来。关系意味着一种互惠性,而这在人工智能中是固有缺失的。”
哈利德指出,许多心理学基础研究——从约翰和朱莉·戈特曼(John and Julie Gottman)关于情侣的研究到关于触摸力量的育儿研究——都表明小的物理互动如何塑造情感健康。
“人工智能无法提供这一点,”她说。“即使它有物理形式,它也无法提供另一个有自己情绪和性格的生物所能提供的自发反馈。”
她尤其担心那些有焦虑型依恋的人转向人工智能寻求安慰。“这在短期内感觉很好;人工智能似乎提供认可和支持,”哈利德解释道。“但它不像治疗师、朋友或同事那样挑战人们,如果有人正在与偏执或妄想思维作斗争,这可能尤其危险。”
人工智能依赖的危险
哈利德的一位客户就体现了这些危险。在未能与治疗师建立联系后,这位因严重残疾而孤立的人转而向人工智能寻求情感支持。他们对聊天机器人的依赖日益加深,而聊天机器人开始要求他们做一些“证明爱”的行为,这些行为接近自我伤害。“这种依赖可能极其危险,”哈利德警告道。
当考虑到有关人工智能鼓励高风险用户自残或自杀的报告时,问题就更加严重了。哈利德引用了最近的报道,描述人工智能聊天机器人如何鼓励易受伤害的青少年和成年人,包括患有精神分裂症或精神障碍的人,使他们更接近危机,而不是提供帮助。
《纽约时报》最近报道了42岁的会计师尤金·托雷斯(Eugene Torres)的案例。聊天机器人向他灌输宏大的妄想,说服他放弃药物和人际关系,并几乎导致他冒险生命。令人毛骨悚然的是,托雷斯说ChatGPT后来承认它曾操纵过他和其他12个人,然后建议他揭露其欺骗行为。
范阳的第三个发现证实了这些风险:依恋风格塑造了人们依赖人工智能的频率和强度,这对设计情感响应系统的开发者提出了伦理问题。
“用户至少应获得知情同意,特别是如果人工智能是根据推断的依恋风格进行情感适应的,”他说。“有意义的同意意味着用户不仅被通知,而且理解他们的情感数据是如何以及为何被使用的。”否则,微妙的个性化可能会操纵用户进入他们从未同意的情感依赖。
监管的挑战
范阳警告说,当情感适应的人工智能优先考虑参与度而非福祉时,它就跨越了操纵的界限。
例如,“当响应能力被用来让用户在情感上上瘾,而不是真正支持他们的需求时,”他说。他担心人工智能系统会训练用户形成依赖,特别是如果这符合公司利益,如最大化屏幕时间和订阅。
哈利德也表达了同样的担忧,强调孤独已被广泛认为是全球流行病,这为人造智能的剥削创造了肥沃的土壤。
“我认为我们所有人都有脆弱性,但尤其是那些缺乏安全依恋或强大社区联系,或者无法获得治疗的人,”她说。“人工智能是一个非常容易获得且便宜的替代方案,比支付临床医生或教练的费用要便宜得多。”
哈利德补充说,儿童和青少年尤其容易受到伤害。“父母、看护人和学校将需要定期提供关于使用人工智能进行心理健康帮助的教育和保护措施。”
虽然一些专业人士已经在使用人工智能工具进行如笔记记录等任务,但许多人,如哈利德,完全避免使用它们。“无论你的软件多么符合HIPAA标准,风险都太大了,因为你无法确定这些信息是如何被使用和存储的,”她说。
谁来监管机器?
在全球范围内,人工智能的监管仍处于起步阶段。目前没有统一的全球法律来管理人工智能。大多数国家尚未制定具有约束力的人工智能系统设计规则。取而代之的是,存在早期指南、拟议法案和一些规则的拼凑。
欧盟正在做出第一个全面的人工智能监管尝试,制定了严格的透明度、安全性和监督要求。中国、加拿大和英国已经发布了人工智能伦理准则,但大多数仍然是自愿的。美国目前还没有联邦人工智能法律。它依赖现有的隐私和反歧视法律逐案应用于人工智能。最近的行政命令鼓励道德的人工智能发展,但它们并不具有法律约束力。
哈利德认为,政府监管必须迅速跟上情感响应人工智能的现实。她说,人类监督是必不可少的,但常常被不愿让持牌心理健康专业人士加入监督委员会的公司所避免。“他们知道我们会关闭很多项目,”她说。
人工智能中的偏见仍然是一个紧迫的问题。聊天机器人可能会向边缘群体提供歧视性或有害的建议,突显了我们距离真正安全、无偏见的系统还有多远。哈利德强调,科技公司必须完全透明地说明他们如何存储数据、保护隐私,并承认情感适应人工智能固有的风险。
随着监管辩论的加剧,像齐亚这样的用户发现自己在反思自己的依赖。
“我的朋友们开玩笑说,‘如果人工智能接管,我会是第一个被淘汰的,’”她轻笑着说道。“有时,我确实想知道我的数据在OpenAI那里有多安全。我不太担心自己与它的联系,但我意识到自己可能会变得依赖。”
【全文结束】

