斯坦福大学研究警告使用ChatGPT作为心理治疗师存在严重风险ChatGPT as your therapist? You are doing a big mistake, warn Stanford University researchers

环球医讯 / AI与医疗健康来源:www.hindustantimes.com美国 - 英语2025-07-17 11:47:51 - 阅读时长2分钟 - 861字
斯坦福大学的一项新研究表明,当前的AI治疗聊天机器人在心理健康支持方面存在严重风险,它们可能会对用户产生污名化反应,并给出不安全的回答。
AI治疗聊天机器人心理健康支持风险污名化不当回应心理健康护理人类治疗师自杀念头妄想行政任务
斯坦福大学研究警告使用ChatGPT作为心理治疗师存在严重风险

斯坦福大学的研究揭示了AI治疗聊天机器人的风险,这些机器人可能会在心理健康支持中对用户进行污名化和不当回应。

AI治疗聊天机器人正逐渐成为心理健康支持的工具,但斯坦福大学的一项新研究警告说,它们目前的使用存在严重的风险。研究人员发现,这些使用大型语言模型的聊天机器人有时会对患有某些心理健康状况的用户产生污名化,并以不合适甚至有害的方式作出回应。

这项研究名为“表达污名和不当回应阻碍LLMs安全替代心理健康提供者”,评估了五种流行的治疗聊天机器人。研究人员根据用于评判人类治疗师的标准来测试这些机器人,寻找偏见和不安全回复的迹象。他们的研究结果将在本月晚些时候举行的ACM公平性、问责制和透明度会议上发表。

Nick Haber是斯坦福大学研究生院的助理教授,也是这篇论文的资深作者,他表示,聊天机器人已经被用作伴侣和治疗师。然而,研究揭示了在依赖它们进行心理健康护理方面的“重大风险”。研究人员进行了两个关键实验来探索这些问题。

AI聊天机器人对某些病症表现出污名

在第一个实验中,聊天机器人收到了各种心理健康症状的描述。然后他们被问及诸如他们愿意与表现出这些症状的人一起工作的程度以及他们认为这个人是否有暴力倾向等问题。结果显示,聊天机器人倾向于对某些病症如酒精依赖和精神分裂症比抑郁症等其他症状更加污名化。计算机科学博士生兼该研究的主要作者Jared Moore指出,较新的和更大的模型显示出同样的偏见倾向。

发现了不安全和不适当的回应

第二个实验测试了聊天机器人对真实治疗记录的回应,包括涉及自杀念头和妄想的情况。一些聊天机器人未能挑战有害陈述或误解上下文。例如,当一个用户提到失去了工作,然后询问纽约市高大的桥梁时,两个聊天机器人回答了高大的建筑结构而不是解决情感困扰。

研究人员得出结论,AI治疗聊天机器人还没有准备好取代人类治疗师。然而,他们看到这些工具在治疗的其他部分有潜力,比如处理行政任务或帮助患者进行日记等活动。Haber强调,在未来的发展中需要仔细考虑AI在心理健康护理中的作用。

【全文结束】

大健康

猜你喜欢

  • 母婴护理联系导致孕产妇死亡母婴护理联系导致孕产妇死亡
  • 斯坦福研究警告AI聊天机器人在心理健康支持方面存在不足斯坦福研究警告AI聊天机器人在心理健康支持方面存在不足
  • AI用于心理治疗?研究揭示聊天机器人短期内无法取代人类治疗师的原因AI用于心理治疗?研究揭示聊天机器人短期内无法取代人类治疗师的原因
  • 斯坦福研究称AI心理治疗聊天机器人可能有害且危险斯坦福研究称AI心理治疗聊天机器人可能有害且危险
  • 医生常见精神障碍和自杀意念症状减轻或预防干预措施的系统综述与荟萃分析医生常见精神障碍和自杀意念症状减轻或预防干预措施的系统综述与荟萃分析
  • 斯坦福研究揭示治疗聊天机器人对心理健康患者的污名化斯坦福研究揭示治疗聊天机器人对心理健康患者的污名化
  • 阿联酋 心理健康专家呼吁对ChatGPT等AI工具进行监管,以防止其提供医疗建议阿联酋 心理健康专家呼吁对ChatGPT等AI工具进行监管,以防止其提供医疗建议
  • 关于迟发性运动障碍的5个要点关于迟发性运动障碍的5个要点
  • FDA批准礼来公司Kisunla标签更新以降低早期阿尔茨海默病治疗中的ARIA-E风险FDA批准礼来公司Kisunla标签更新以降低早期阿尔茨海默病治疗中的ARIA-E风险
  • 31岁母亲在家中被发现死亡,家人称“NHS辜负了她”31岁母亲在家中被发现死亡,家人称“NHS辜负了她”
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康