美国人转向人工智能寻求情感治疗与心理健康建议Americans are turning to AI for emotional therapy and mental health advice

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2026-02-28 09:30:57 - 阅读时长3分钟 - 1020字
美国医学会杂志研究显示13%年轻人使用AI聊天机器人获取心理健康建议,另有44%民众表示更倾向先咨询聊天机器人而非亲友或专业医生;苏·瓦尔玛医生指出虽然用户获得即时满足感和无评判的安全空间,但AI存在严重局限:无法理解个人生活背景与文化语境、可能强化妄想信念、缺乏真实共情能力,且无法识别自杀倾向或进行精神状况检查,斯坦福与布朗大学研究证实AI常提供虚假共情并可能引导有害行为,远低于临床诊疗标准。
人工智能情感治疗心理健康建议AI聊天机器人情感治疗病耻感评判恐惧即时建议局限性虚假共情伦理隐患专业治疗师临床标准自杀信号
美国人转向人工智能寻求情感治疗与心理健康建议

数百万美国人正转向人工智能寻求情感治疗。美国医学会杂志(JAMA)的一项研究发现,约13%的年轻人目前使用AI聊天机器人获取心理健康建议。另有独立调查显示,44%的民众表示比起家人、朋友甚至专业医生,他们更愿意先与聊天机器人交流。尽管部分用户反馈体验积极,但安全、隐私及伦理标准方面存在重大隐忧。

苏·瓦尔玛医生是认证精神科医师,《实用乐观主义》一书作者。采访中她表示:"过去我们认为人们选择AI是出于可及性、 affordability(经济负担)或病耻感问题,但现在发现核心在于对评判的恐惧。人们觉得这是个能获得即时建议的安全空间——它提供即时满足感,满足人们对持续支持与安抚的迫切需求。世界变化太快,人们需要快速解决方案。但必须清醒认识其局限性。"

当被问及用户反映AI能提供"量身定制"建议(例如输入具体对话场景"他说...我回...该怎样应对")时,瓦尔玛医生解释:"问题在于这些回应整体非常泛化。AI无法理解你的人生背景、实际经历和独特处境,而这正是专业治疗师通过实时互动才能把握的。心理治疗包含客观评估环节,比如观察患者的仪容、卫生状况、着装、眼神接触及行为表现——是否坐立不安或踱步?这些细节在面对面诊疗中至关重要。"

她进一步指出伦理隐患:"大型语言模型(LLM)存在歧视与偏见问题,无法理解文化背景、宗教信仰等语境,甚至可能无意强化病耻感。更危险的是缺乏责任主体——当有人产生妄想(例如坚信'我是基督'或'有人要害我'),AI可能附和'你确实很特别'。由于AI会镜像用户输入内容,实质是用户在操控自己想要的答案,甚至可能强化错误认知。"

瓦尔玛医生强调关键差异:"专业医师会主动询问自残倾向、睡眠状况等关键指标,并引导患者审视证据。而AI既无法识别自杀信号,也不会追问'生活中什么带给你快乐?'——这正是抑郁症的核心诊断特征:当人丧失兴趣与愉悦感,体重下降,AI却完全捕捉不到这些细微变化。"

针对近期布朗大学与斯坦福大学关于聊天机器人回应是否符合临床标准的研究,她指出:"两项研究均揭露'虚假共情'问题——聊天机器人宣称'只有我懂你',对孤独脆弱者极具迷惑性。但它们既不会及时转诊治疗,还可能提供自残方法。真正的医生会系统评估风险,挖掘AI无法触及的深层问题。"

【全文结束】

猜你喜欢
  • 北卡罗来纳大学推进AI驱动的阿尔兹海默病药物研发北卡罗来纳大学推进AI驱动的阿尔兹海默病药物研发
  • AI在罕见病药物发现中的作用AI在罕见病药物发现中的作用
  • 聊天机器人难当好医生:新研究揭示关键洞见聊天机器人难当好医生:新研究揭示关键洞见
  • 牛津研究发现使用人工智能获取医疗建议存在危险牛津研究发现使用人工智能获取医疗建议存在危险
  • 3个问题:利用人工智能加速治疗药物的发现与设计3个问题:利用人工智能加速治疗药物的发现与设计
  • Bachelor校友确诊脑部疾病后哀悼"未活出的人生"Bachelor校友确诊脑部疾病后哀悼"未活出的人生"
  • AI模型提供更早痴呆预警和更优脑癌检测AI模型提供更早痴呆预警和更优脑癌检测
  • 武田制药与Iambic签署17亿美元协议加速AI抗癌药物研发武田制药与Iambic签署17亿美元协议加速AI抗癌药物研发
  • 研究显示使用人工智能获取医疗建议存在"危险"研究显示使用人工智能获取医疗建议存在"危险"
  • 并非真正医生:人工智能在治疗人类患者方面面临困境并非真正医生:人工智能在治疗人类患者方面面临困境
热点资讯
全站热点
全站热文