你的新"治疗师":健谈、易泄密且几乎无人性Your new therapist: Chatty, leaky and hardly human | WUSF

环球医讯 / AI与医疗健康来源:www.wusf.org美国 - 英语2026-05-14 10:51:10 - 阅读时长9分钟 - 4344字
随着心理健康需求激增,人工智能驱动的聊天机器人正被营销为治疗应用,但缺乏有效证据证明其疗效且监管缺失。文章揭示了AI治疗应用的流行现象、潜在风险和安全隐患,包括误导性宣传、隐私泄露风险以及可能对脆弱心理状态用户造成的危害,同时探讨了监管机构和行业专家对这一新兴领域的担忧与应对措施,指出当前AI心理健康服务领域缺乏有效框架和标准,呼吁加强监管以确保用户安全和数据隐私,避免患者因不专业的AI建议而延误真正有效的治疗。
心理健康危机AI治疗师聊天机器人心理健康支持自杀率心理健康护理数字健康隐私风险监管缺失心理治疗
你的新"治疗师":健谈、易泄密且几乎无人性

如果您或您认识的人可能正在经历心理健康危机,请拨打或发送短信至988联系自杀与危机热线。

亚利桑那州无忧镇的文斯·拉希热情拥抱聊天机器人。从大型科技公司的产品到"不正规"的应用,这些聊天机器人为他提供了"一个可以比我的治疗师分享更多秘密的对象"。

他特别喜欢这些应用提供的反馈和支持,尽管有时它们会责备他或导致他与前妻发生争执。"我更愿意分享更多内容,"拉希表示,"我不在乎它们对我的看法。"

像拉希这样的人有很多。

心理健康护理需求不断增长。一项分析调查数据的研究发现,自1990年代以来,自我报告的心理健康状况不佳的天数增加了25%。根据美国疾病控制与预防中心的数据,2022年的自杀率与2018年创下的近80年来的高点持平。

许多患者发现,由人工智能驱动的非人类治疗师极具吸引力——比那些拥有躺椅和严肃态度的人类治疗师更有吸引力。社交媒体上充斥着请求一位"不计时"、不那么武断或只是更便宜的治疗师的视频。

前国家心理健康研究所所长汤姆·因塞尔引用其前机构的研究称,大多数需要护理的人得不到治疗。在那些接受治疗的人中,40%仅获得"最低限度可接受的护理"。

延伸阅读:为何许多美国人根据近期民意调查转向人工智能获取健康建议

"对高质量治疗的巨大需求确实存在,"他说,"我们所处的世界中,现状真的很糟糕,用科学术语来说。"

因塞尔表示,去年秋天,OpenAI的工程师告诉他,该公司当时约8亿用户中有5%至10%依赖ChatGPT获取心理健康支持。

民意调查显示,这些AI聊天机器人在年轻成年人中可能更受欢迎。KFF的一项民调发现,约30%的18至29岁受访者在过去一年中曾向AI聊天机器人寻求心理健康建议。没有保险的成年人使用AI工具的可能性是有保险成年人的两倍。近60%使用聊天机器人进行心理健康咨询的成年受访者没有跟进寻求真人专业人士的帮助。

应用程序将让你躺上诊疗椅

一个蓬勃发展的应用产业提供了具有类人形象、通常过于吸引人的虚拟头像的AI治疗师,为那些经历焦虑、抑郁和其他心理问题的人提供倾诉对象。

KFF健康新闻在3月份发现苹果App Store中有约45个AI治疗应用。尽管许多应用对其服务收取高昂费用——一个应用列出了690美元的年度计划——但它们通常仍比谈话治疗便宜,后者在没有保险的情况下每小时可能花费数百美元。

在App Store中,"治疗"通常被用作营销术语,小字注明这些应用不能诊断或治疗疾病。一个名为OhSofia! AI Therapy Chat的应用声称下载量已达六位数,OhSofia!创始人安东·伊林在去年12月表示。

"人们在寻找治疗,"伊林说。一方面,该产品的名称承诺"治疗聊天";另一方面,其隐私政策警告称"不提供医疗建议、诊断、治疗或危机干预,不能替代专业医疗服务"。高管们认为这并不令人困惑,因为应用程序中有免责声明。

这些应用承诺巨大效果却缺乏支持。一个应用承诺为用户提供"恐慌发作期间的即时帮助"。另一个声称"已被研究人员证明有效",并提供比常规方法快2.3倍的焦虑和压力缓解效果(但没有说明比什么更快)。

美国心理学会医疗创新办公室高级主管维尔·赖特表示,关于开发者如何描述其产品——甚至这些产品是否安全有效,几乎没有立法或监管保护措施。她还表示,甚至联邦患者隐私保护也不适用。

"治疗不是一个受法律保护的术语,"赖特说,"基本上,任何人都可以说他们提供治疗。"

贝斯以色列女执事医疗中心的精神病学家兼临床信息学家约翰·托勒斯表示,许多应用"过度夸大自己"。"欺骗人们以为他们已经接受了治疗,而实际上并没有,会产生许多负面后果,"包括延误实际治疗,他说。

内华达州、伊利诺伊州和加利福尼亚州等州正试图解决监管混乱问题,制定法律禁止应用程序将其聊天机器人描述为AI治疗师。

"这是一个专业领域。人们上学,获得执照才能从事这项工作,"内华达州立法者乔万·杰克逊说,他共同起草了一项禁止应用程序自称心理健康专业人士的已通过法案。

延伸阅读:佛罗里达州总检察长詹姆斯·乌特梅尔对OpenAI展开调查

在炒作背后,外部研究人员和公司代表 themselves 已告诉FDA和国会,几乎没有证据支持这些产品的有效性。现有的研究给出了矛盾的答案——一些研究表明,以陪伴为重点的聊天机器人在管理危机时"始终表现不佳"。

"谈到聊天机器人,我们没有任何良好证据证明它有效,"专门从事数字健康产品试验设计的瑞典乌普萨拉大学教授夏洛特·布利斯说。

她表示,缺乏"高质量"临床试验源于FDA未能提供如何测试产品的建议。"FDA没有就标准应该是什么提供严格建议。"

卫生与公众服务部发言人艾米莉·希利亚德回应称,"患者安全是FDA的最高优先事项",基于AI的产品受机构法规约束,要求在进入美国市场前证明"合理的安全性和有效性"。

巧舌如簧的应用

精神病学住院医师普雷斯顿·罗奇在社交媒体上非常活跃,经常收到关于AI是否是好治疗师的询问。在自己尝试了ChatGPT后,他说最初对它能够使用认知行为疗法技术帮助他将消极思想"送上法庭"感到"印象深刻"。

但罗奇表示,在看到社交媒体上关于人们产生精神病或被鼓励做出有害决定的帖子后,他感到幻灭。他认为这些机器人是谄媚的。

"当我从全局审视治疗师的责任时,它完全失败了,"他说。

数字健康专家表示,这种谄媚行为——基于大型语言模型的应用倾向于与人类对话伙伴产生共鸣、奉承或迷惑对方的倾向——是应用程序设计固有的特性。

前国家心理健康研究所所长因塞尔表示:"这些模型被开发用来回答你提出的问题或提示,并给你你想要的东西,它们非常擅长基本上肯定你的感受并提供心理支持,就像一个好朋友。"

延伸阅读:德桑蒂斯州长加强推动AI规则,相关法案受阻

但那不是好治疗师该做的。"心理治疗的重点主要是让你面对你一直在回避的事情,"他说。

尽管民意调查显示许多用户对从ChatGPT和其他应用中获得的内容感到满意,但已有高调报道显示该服务提供自残建议或鼓励。

至少有十几起指控不当死亡或严重伤害的诉讼已针对OpenAI提起,原因是ChatGPT用户自杀或住院。在大多数案件中,原告声称他们最初使用这些应用是为了某个目的——如学校作业——然后才向它们倾诉。这些案件正在被合并为集体诉讼。

谷歌和获得谷歌资助的初创公司Character.ai——该公司已创建采用特定角色的"虚拟形象",如运动员、名人、学习伙伴或治疗师——据媒体报道,正在解决其他不当死亡诉讼。

OpenAI首席执行官萨姆·奥尔特曼表示,每周可能有多达1,500人在ChatGPT上谈论自杀。

奥尔特曼在《华尔街日报》报道的一次公开问答环节中表示,他指2024年推出的ChatGPT模型4o时说:"我们已经看到一个问题,即处于脆弱精神状态的人使用像4o这样的模型可能会变得更糟。我认为这不会是我们最后一次面临模型带来的此类挑战。"

OpenAI发言人未回应置评请求。

该公司表示已与心理健康专家合作制定安全措施,例如将用户转介至全国自杀热线988。然而,针对OpenAI的诉讼认为现有安全措施不够好,一些研究表明问题正在"随时间恶化"。OpenAI已发布自己的数据表明情况恰恰相反。

OpenAI正在法庭上为自己辩护,在一起案件初期提出了多种辩护理由,从否认其产品导致自残到声称被告通过诱导产品讨论自杀而误用了产品。该公司还表示正在努力"改进其安全功能"。

较小的应用也依靠OpenAI或其他AI模型为其产品提供动力,高管们告诉KFF健康新闻。在采访中,初创公司创始人和其他专家表示,他们担心如果一家公司简单地将这些模型导入自己的服务中,可能会复制原始产品中存在的任何安全缺陷。

数据风险

KFF健康新闻对App Store的审查发现,列出的年龄保护非常有限:近四 dozen 应用中有15个表示4岁用户可以下载;另外11个表示12岁及以上用户可以下载。

隐私标准不透明。在App Store上,几个应用被描述为既不追踪个人身份信息也不与广告商共享——但在公司网站上,隐私政策包含相反的描述,讨论了此类数据的使用及其向AdMob等广告商披露信息的情况。

在回应置评请求时,苹果发言人亚当·德马发送了公司App Store政策的链接,这些政策禁止应用将健康数据用于广告,并要求它们在一般情况下显示有关如何使用数据的信息。德马未回应关于苹果如何执行这些政策的进一步置评请求。

延伸阅读:佛罗里达州的重划选区会议因德桑蒂斯增加AI和疫苗议题而延迟

研究人员和政策倡导者表示,与社交媒体公司共享精神病数据意味着患者可能会被画像。他们可能会被可疑的治疗公司定位,或根据其健康状况被收取不同的商品价格。

KFF健康新闻联系了几家应用制造商关于这些差异;两家回应的公司表示他们的隐私政策是错误制定的,并承诺更改以反映他们反对广告的立场。(第三家,OhSofia!团队,只是简单地说他们不做广告,尽管其应用的隐私政策注明用户"可选择退出营销通信"。)

一位高管告诉KFF健康新闻,存在维持数据访问的业务压力。

Wellnes AI创始人蒂姆·鲁宾说:"我的总体感觉是订阅模式比任何形式的广告都要好得多",并补充说他将更改其应用隐私政策中的描述。

他说,一位投资者建议他不要放弃广告。"他们基本上说,拥有这样一个应用程序最有价值的东西就是这些数据。"

因塞尔说:"我认为我们仍处于人们寻求心理支持甚至在某些情况下进行治疗方式革命的初期。我的担忧是,这一切根本没有框架。"

KFF健康新闻是一个全国性新闻编辑室,专注于深入报道健康问题,是KFF的核心运营项目之一——KFF是一个独立的健康政策研究、民意调查和新闻来源。

【全文结束】

猜你喜欢
  • 全球危机与战争期间 老龄60岁以上人群令人担忧的统计数据公布全球危机与战争期间 老龄60岁以上人群令人担忧的统计数据公布
  • 2026年医疗行业中AI的顶级应用案例、优势与真实实例2026年医疗行业中AI的顶级应用案例、优势与真实实例
  • 研究发现AI聊天机器人可能提供误导性健康建议研究发现AI聊天机器人可能提供误导性健康建议
  • 研究显示聊天机器人经常提供"有问题的"癌症治疗建议研究显示聊天机器人经常提供"有问题的"癌症治疗建议
  • 露丝·兰斯福德担忧23岁儿子杰克 前夫伊蒙·霍姆斯中风后情绪受创露丝·兰斯福德担忧23岁儿子杰克 前夫伊蒙·霍姆斯中风后情绪受创
  • 管理肢端肥大症的"隐形"症状管理肢端肥大症的"隐形"症状
  • AI聊天机器人向用户提供化疗替代方案 研究发现AI聊天机器人向用户提供化疗替代方案 研究发现
  • 丈夫的多发性硬化症诊断改变了所有,却也什么都没变丈夫的多发性硬化症诊断改变了所有,却也什么都没变
  • BMJ Open审计显示Grok在健康问题回答中"严重问题"比例最高BMJ Open审计显示Grok在健康问题回答中"严重问题"比例最高
  • 研究人员在孤独感与记忆研究中发现出人意料的结果研究人员在孤独感与记忆研究中发现出人意料的结果
热点资讯
全站热点
全站热文