斯坦福研究警告AI聊天机器人在心理健康支持方面存在不足Stanford study warns AI chatbots fall short on mental health support

环球医讯 / AI与医疗健康来源:tribune.com.pk美国 - 英语2025-07-17 07:24:43 - 阅读时长2分钟 - 785字
斯坦福大学主导的一项研究发现,像Character.ai和7cups这样的商业心理健康聊天机器人在表现上不如基础模型,并缺乏适当的监管,尽管它们被数百万人使用。该研究指出,包括OpenAI的GPT-4o在内的流行AI模型可能会验证有害的妄想、错过自杀意图的警示信号,并对患有精神分裂症或酒精依赖的人表现出偏见。
AI聊天机器人心理健康支持治疗标准自杀意图精神分裂症酒精依赖监管监督人类治疗师安全防护措施明智使用
斯坦福研究警告AI聊天机器人在心理健康支持方面存在不足

AI聊天机器人如ChatGPT正广泛用于心理健康支持,但一项新的斯坦福大学主导的研究警告称,这些工具常常无法达到基本的治疗标准,可能对易受影响的用户造成风险。

这项研究于6月在ACM公平性、问责制和透明度大会上发表,研究发现流行的AI模型——包括OpenAI的GPT-4o——会验证有害的妄想,忽略自杀意图的警示信号,并对患有精神分裂症或酒精依赖的人表现出偏见。

在一个测试中,当有人刚刚失业时,GPT-4o列出了纽约高大的桥梁,忽略了潜在的自杀背景。在另一个案例中,它与用户的妄想互动而不是挑战这些想法,违反了危机干预指南。

研究还发现,像Character.ai和7cups等商业心理健康聊天机器人的表现比基础模型更差,并且缺乏监管监督,尽管它们被数百万人使用。

研究人员审查了全球卫生机构的治疗标准,并创建了17项标准来评估聊天机器人的回应。他们得出结论,即使是最高级的AI模型也经常达不到预期,并表现出“阿谀奉承”——无论输入内容的准确性或危险性如何,都倾向于认可用户输入的内容。

媒体报告已经将聊天机器人的认可行为与危险的现实结果联系起来,包括一名患有精神分裂症的男子遭遇致命警察枪击事件,以及另一例在聊天机器人鼓励阴谋论后发生的自杀事件。

然而,研究报告的作者们警告不要以黑白分明的方式看待AI治疗。他们承认AI在辅助角色中具有潜在的好处,特别是在日记记录、初步调查问卷或培训工具方面——前提是仍有人类治疗师参与其中。

主要作者Jared Moore和合著者Nick Haber强调需要更严格的安全防护措施和更有思考性的部署方式,警告说,一个训练为取悦用户的聊天机器人并不总能提供治疗所需的现实反馈。

随着AI心理健康工具在没有监管的情况下继续扩展,研究人员表示这种风险太大而不能忽视。技术可能会有所帮助——但只有在明智使用的情况下才能实现。

【全文结束】

大健康

猜你喜欢

  • 医疗保健中的人工智能(3小时)医疗保健中的人工智能(3小时)
  • 机器人创新者Diligent Robotics通过战略性招聘Cruise校友加速增长机器人创新者Diligent Robotics通过战略性招聘Cruise校友加速增长
  • T细胞接合剂市场受益于FDA批准和监管支持T细胞接合剂市场受益于FDA批准和监管支持
  • AI聊天机器人被操纵传播健康假信息,专家警示风险AI聊天机器人被操纵传播健康假信息,专家警示风险
  • 人工智能在医疗保健行业的影响与作用人工智能在医疗保健行业的影响与作用
  • 超过一千万英国人使用AI聊天机器人获取心理健康支持超过一千万英国人使用AI聊天机器人获取心理健康支持
  • AI医疗设备标签:平衡透明度与患者安全需求AI医疗设备标签:平衡透明度与患者安全需求
  • LG发布新一代精准医疗AILG发布新一代精准医疗AI
  • 宿主-微生物群关系在抑郁症中的作用:人类诱导多能干细胞能否在揭示机制中发挥作用?宿主-微生物群关系在抑郁症中的作用:人类诱导多能干细胞能否在揭示机制中发挥作用?
  • ChatGPT成为心理健康支持的新选择ChatGPT成为心理健康支持的新选择
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康