AI:一个可以依靠的数字肩膀AI: A digital shoulder to lean on

环球医讯 / AI与医疗健康来源:kathmandupost.com尼泊尔 - 英语2025-05-01 10:00:00 - 阅读时长5分钟 - 2480字
随着技术逐渐替代心理治疗师的角色,人们开始转向AI寻求情感慰藉。但机器真的能理解人类的痛苦吗?本文探讨了AI在心理健康领域的应用及其局限性。
心理健康AI聊天机器人情感慰藉伊丽莎效应治疗局限自杀念头依恋风格隐私风险人际联系治疗应用程序
AI:一个可以依靠的数字肩膀

你可能认为AI模仿心理治疗师是一个新现象。然而,早在1966年,麻省理工学院教授约瑟夫·魏岑鲍姆就创建了一个能够模拟心理治疗师反应的聊天机器人。据《卫报》报道,用户可以通过连接到主机的电动打字机输入他们的想法,并收到自动的支持性回复——这是人类如何与机器形成情感联系的早期迹象。

魏岑鲍姆将这个聊天机器人命名为“伊丽莎”,并在一篇期刊文章中发表了样本,证明了这个聊天机器人是有效的。

快进到2025年,越来越多的人转向AI寻求情感慰藉。现年24岁的金斯学院尼泊尔分校学生艾莉森·普拉萨伊表示:“向AI倾诉比向真人更容易,因为没有被评判的恐惧,也没有尴尬感,表达我的想法感觉更安全。”这是人们向AI倾诉的主要原因之一——避免自己的脆弱被评判。她还说,她不想给别人带来负担,所以她选择在AI提供的安全和匿名环境中表达自己。

一个知名的心理健康AI聊天机器人Woebot Health在其网站上写道:“由于严重缺乏治疗师、令人困惑的保险术语以及预约难题,心理健康护理系统无法支持所有需要帮助的人。”专门研究工业组织心理学的尼尚特·东加纳持有类似观点:“AI全天候可用,无需等待,也没有实际治疗中的预约麻烦。这在情绪困扰或孤独时可以非常令人安心。”

像Chatgpt这样的语言模型可以模拟真实治疗的一部分。它可以反映认知行为疗法(CBT)的一些方面,提供应对策略,或帮助重新构建负面思维。

尽管如此,AI聊天机器人不能做出诊断或开具药物。“人们应该只用AI进行日常的情感检查,如日记支持、重新构建负面思维、学习应对工具、处理艰难对话和建立情商。”Mindwell Solutions的联合创始人兼心理学家安吉娜·萨普科塔说。

那些转向AI寻求情感慰藉的用户可能已经陷入了“伊丽莎效应”。魏岑鲍姆观察到,尽管许多人知道伊丽莎只是一个机器,但他们仍然披露了他们生活中的私密细节。这些人认为这个机器内部有某种东西能够理解他们的痛苦。因此,如果你曾经觉得与Chatgpt有“联系”,那你很可能已经陷入了“伊丽莎效应”。

现年23岁的法学学士生迪佩什·贾纳瓦利表示,AI对他来说感觉“熟悉”,因为“它理解我通常会问的问题和我的行为模式。”由于Chatgpt保留了用户的提示记忆,它能够很好地理解用户,并在被询问时提供个性化建议。“这是很难从其他人那里得到的,”他说。

虽然AI在一定程度上可能是有用的,但在极端情况下不应信任它,特别是对于那些“患有严重抑郁症、焦虑症和精神分裂症等精神病症状以及一些自杀或杀人倾向”的人,萨普科塔说,“因为AI可能无法理解一个人的情绪有多脆弱。”

AI目前还不具备检测早期自杀念头的能力,比如远离他人、极度情绪波动或绝望感。这些情况需要立即关注,这就是为什么“保持与关心你的人的联系并在需要时寻求专业帮助”很重要,萨普科塔补充道。

AI的短期支持可能提供暂时的缓解,但从长远来看,它可能是有害的,因为它缺乏与现实生活支持系统的联系。

“它更像是一个情感急救包,而不是治疗计划,”东加纳说。

一个人的依恋风格也会影响他们采用AI咨询工具的程度。具有焦虑和回避依恋风格的人可能会感到向非人类、非评判性的实体倾诉是安全的。然而,新西兰坎特伯雷大学领导的研究发现,具有焦虑依恋风格的人——表现为对关系安全感的高度关注和害怕被抛弃——更有可能使用AI治疗工具。而具有回避依恋风格的人则没有表现出强烈的使用AI进行情感支持的倾向。

“像Chatgpt这样的AI缺乏治疗工具,也不理解许多文化细微差别,使其在危机时刻成为不可靠的求助来源,”数字权利尼泊尔执行董事桑托什·西格尔说。“此外,当我们分享我们生活的私密细节时,也存在隐私泄露的风险。”

由于AI缺乏同理心、适应性洞察力和训练有素的心理健康专业人士的细致理解,它无法识别某人何时需要危机干预,也无法发展长期的动态治疗关系。

“在处理精神病患者时,我经常看到他们使用AI来查询他们的药物或治疗方法。这种依赖往往导致认知偏见和社会错误信息的传播,最终加剧他们的心理健康状况,”萨普科塔说。

魏岑鲍姆后来反对他自己的发现,并在他的书中写道,AI是“我们世界疯狂的指标。”因为教授看到了与AI的肤浅互动如何轻易误导人们。他认为这是一个更广泛的社会问题,即技术的吸引力可能会掩盖真正的人际联系和理解。

Meta的数据科学家科林·弗雷泽在他的博客中写道,Chatgpt“设计用来欺骗你,让你以为你在和一个实际上不存在的人交谈。”

虽然我们大多数人都知道AI的缺点,并且知道它实际上“不在那里”,但我们仍然继续使用它,因为它“模拟了被倾听的体验,满足了人类的基本需求,”东加纳说。对于普拉萨伊来说,她只需要有人听她说,不打断她。对于贾纳瓦利来说,使用AI寻求建议是必要的,因为“仅仅有人倾听是不够的。”

然而,西格尔警告说,我们可能会过度依赖AI的非评判性,这可能导致一种痴迷。

AI可以创造一个循环,使我们远离真正的人际关系。当世界感到沉重时,它可以是一个好的起点,但它不能成为一个永久的解决方案。你也可以使用其他应对机制,如写日记、练习深呼吸、注意你的想法、承认你的感受、与你信任的人交谈或从现实生活经验中学习。这些方法可能比与AI互动更接地气和真实。

此外,还有其他治疗应用程序,如BetterHelp、Talkspace、7 Cups和MindDoc,它们将用户与持证治疗师和心理健康专业人士联系起来。“这些平台还提供视频或聊天会话、情绪跟踪、日记记录、基于CBT的练习和自助资源,”萨普科塔说。

虽然AI工具可以在孤独时刻提供慰藉,但重要的是要记住,真正的人际联系才是治愈的源泉。如果你感到孤独,没有人可以分享你的困境,请考虑寻求心理健康专业人士的帮助。治疗可能很昂贵,但有些地方提供免费或低成本的咨询服务,还有一些心理健康热线随时待命。

依靠AI来获得短暂的安慰是可以的,但对于深层次的创伤,人类的介入是必不可少的。技术可以提供一个数字肩膀来依靠,但没有什么能取代真正的联系所带来的温暖。


(全文结束)

大健康

猜你喜欢

  • 西奈山研究人员改进AI工具以更好地检测心脏病风险西奈山研究人员改进AI工具以更好地检测心脏病风险
  • AI增强成像可能改善冠心病风险预测,指导性别特异性治疗AI增强成像可能改善冠心病风险预测,指导性别特异性治疗
  • AI工具加速高风险心脏病患者的诊断AI工具加速高风险心脏病患者的诊断
  • 人工智能如何改变医疗保健:全面指南人工智能如何改变医疗保健:全面指南
  • 健康科技综述——Leidos投资1000万美元与匹兹堡大学合作开发AI疾病检测;Surescripts获得QHIN认证健康科技综述——Leidos投资1000万美元与匹兹堡大学合作开发AI疾病检测;Surescripts获得QHIN认证
  • 儿童应避免使用AI伴侣机器人——评估建议法律强制儿童应避免使用AI伴侣机器人——评估建议法律强制
  • 冥想应用Headspace推出AI伴侣工具Ebb,帮助用户处理情绪冥想应用Headspace推出AI伴侣工具Ebb,帮助用户处理情绪
  • 新研究为成人花生过敏患者带来新希望新研究为成人花生过敏患者带来新希望
  • 青少年心理健康危机与住院精神病科治疗效果研究青少年心理健康危机与住院精神病科治疗效果研究
  • 人工智能伴侣和治疗师是否会改变心理治疗?人工智能伴侣和治疗师是否会改变心理治疗?
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康