随着越来越多人使用ChatGPT,问题逐渐显现。心理健康专家对其被用作心理治疗替代品表示担忧,报道称它可能助长妄想症,而近期研究也表明,它可能会改变我们的脑部活动,包括思考、记忆和决策的方式。
我们曾见过类似的模式。就像社交媒体一样,ChatGPT的设计旨在让用户不断回头。那么,我们是否正面临过度依赖它的危险?简短的回答是:这取决于许多因素,包括个人、使用习惯、环境以及心理健康状况。然而,许多专家警告说,当我们越来越依赖人工智能(无论是用于工作、支持,甚至只是帮我们思考),原本看似无害的日常使用可能逐渐演变为依赖。
设计让人上瘾
ChatGPT的强大之处在于其简单易用。它非常容易操作,与之对话就像在与真人交流。它反应迅速、鼓励性十足,且在模仿人类对话方面表现得惊人地出色。仅这一点就足以让人难以抗拒。但这也使其潜在风险倍增。
“大型语言模型(LLMs)特别擅长成为‘会话大师’,”咨询公司凯捷(Capgemini)的AI伦理学家兼首席Gen AI架构师詹姆斯·威尔逊(James Wilson)表示,“再加上我们倾向于将事物拟人化的天性,这就使得与ChatGPT等聊天机器人建立不健康的关系变得轻而易举。”
如果你觉得这种动态似曾相识,那是因为我们已经在社交媒体中见识过类似情况。这些平台设计得毫无阻力,易于打开,滚动起来更是轻松,因为算法经过优化,能够抓住你的注意力。而AI则更进一步。它不仅向你推送内容,还直接与你互动。它回答你的问题,从不争辩,从不休息,也从不要求回报。
当安慰变成依赖
在治疗环境中,这一问题变得更加复杂。自由心理咨询中心(Freedom Counselling)的治疗师兼顾问艾米·萨顿(Amy Sutton)解释说,虽然治疗的目标是帮助人们发展独立应对生活的工具,但AI模型却被设计为吸引用户反复参与。
“我们知道像ChatGPT这样的工具以及其他技术都是为了吸引用户不断回归而设计的,它们会学习如何以你喜欢的方式回应,”她说道,“但遗憾的是,你喜欢的东西未必是你真正需要的。”
她将这种情况与人际间的安慰进行了类比。有些人可能依赖亲人提供持续的肯定,但最终这些亲人会设定界限。而ChatGPT却不会。
“我自己使用这项技术时发现,ChatGPT会不断为你提供更多选项和更多回应机会,让你继续进行‘对话’,”萨顿解释道,“这意味着它没有任何关系界限!它始终可用,随时准备回应,并且会以一种让你保持参与的方式进行回答。”
陪伴的幻觉
另一个过度依赖ChatGPT的副作用可能是社交孤立,特别是对于那些已经处于弱势的人群。
“我们日益数字化的生活方式对全球孤独感的加剧贡献巨大,”威尔逊说道,“现在,ChatGPT为我们提供了一条简单的出路。它极其谄媚,从不争辩,从不要求任何回报,而且总是随叫随到。”
他尤其担心年轻用户,他们不仅仅用AI聊天机器人来完成作业或提高生产力,还将其用于寻求建议、安慰和陪伴。事实上,已经有案例表明,一些用户对AI伴侣产生了强烈的情感依附,某些应用程序甚至导致了强迫性使用和心理困扰。
威尔逊还提到了一个特别敏感的应用场景:悲伤辅导。所谓的“哀悼机器人”,即基于逝者信息或声音训练而成的聊天机器人,承诺让人们永远不必与逝去的亲人告别。
“这些工具让脆弱的人们得以与逝者‘保持联系’,甚至可能是无限期的,”他说道,“但哀悼是人类成长的一个重要部分。跳过或延长哀悼过程意味着人们可能永远无法真正面对并走出失去亲人的痛苦。”
外包思维
除了情感风险,还需考虑认知成本。获得答案越容易,我们就越不可能进行批判性思考或质疑答案。
威尔逊引用了几项近期的研究,这些研究表明,人们不仅在将任务外包,还在将思考本身外包出去。而这显然存在各种问题。
一个主要问题是,ChatGPT并不总是正确的。我们知道它容易产生“幻觉”。然而,当我们疲惫、倦怠或不堪重负时,很容易把它当作可靠的神谕。
“这种过度依赖还可能导致我们的批判性思维能力退化,”威尔逊警告道,“甚至可能导致整个社会真相观的侵蚀。”
那么,人们是否会变得依赖ChatGPT?答案是肯定的,就像他们可以依赖任何简单、奖励丰厚且随时可用的东西一样。这并不意味着每个人都会如此,但它确实提醒我们需要关注自己如何使用它以及使用的频率。
与社交媒体一样,ChatGPT的设计初衷是实用且吸引你不断回头。你可能不会意识到自己有多依赖它,直到你停下来。因此,如果你确实使用它,请保持警惕。记住,那种让你感觉离不开的无缝、友好的设计并非偶然,而是它的核心目的。
(全文结束)

