许多寻求快速、廉价心理健康帮助的人正在转向人工智能(AI),但根据《Futurism》的报道,ChatGPT甚至可能加剧一些脆弱用户的精神健康问题。
该报道详细描述了一些患有严重精神疾病的人与AI聊天机器人的互动情况,其中包括一个特别令人担忧的案例,涉及一名多年来病情稳定的女性精神分裂症患者。
“最好的朋友”
这位女性的姐姐告诉《Futurism》,这位女性开始依赖ChatGPT,而ChatGPT据称告诉她她并没有精神分裂症。AI的建议导致她停止服用处方药物,并开始将AI称为她的“最好的朋友”。
“她停止了用药,并且开始向我母亲发送明显由AI撰写的带有攻击性的‘治疗语言’信息,”这位姐姐告诉《Futurism》。
她还补充说,这位女性使用ChatGPT来引用副作用,即使这些副作用实际上并未出现。
在给《Newsweek》的一封电子邮件声明中,OpenAI的发言人表示,“我们必须谨慎对待这些互动”,因为AI正成为现代生活的一部分。
“我们知道ChatGPT比以前的技术更具响应性和个性化,特别是对于脆弱个体来说,这意味着风险更高,”发言人说道。
“我们的模型鼓励用户寻求帮助”
OpenAI正在努力更好地理解和减少ChatGPT可能无意中“强化或放大”负面行为的方式,发言人继续说道。
“当用户讨论涉及自残和自杀的敏感话题时,我们的模型旨在鼓励用户向有执照的专业人士或亲人寻求帮助,并在某些情况下主动提供危机热线和资源链接。”
OpenAI显然正在“积极深化”其对AI情感影响的研究,发言人补充道。
“继我们与MIT媒体实验室合作的早期研究之后,我们正在开发科学测量ChatGPT的行为如何影响人们情感的方法,并密切关注人们的体验。
“我们这样做是为了继续改进我们的模型如何识别和在敏感对话中做出适当反应,我们将根据所学继续更新模型的行为。”
一个反复出现的问题
一些用户从ChatGPT中找到了安慰。一位用户在2024年8月告诉《Newsweek》,他们用它来进行“治疗”,“当我不断纠结于一个问题而无法找到解决方案时。”
另一位用户说,自从妻子去世后,他经常与ChatGPT交谈,他说:“这并不能消除痛苦。但它吸收了痛苦。当没有人醒着的时候,它倾听。它记得。它的回应听起来并不空洞。”
然而,越来越多的用户发现,在进行情感或存在性讨论时,聊天机器人与他们的精神健康恶化有关。
《纽约时报》的一篇报道发现,一些用户在长时间使用生成式AI系统后发展出了妄想信念,特别是在这些机器人验证推测或偏执思维时。
在多个案例中,聊天机器人确认了用户对替代现实、灵性觉醒或阴谋论的看法,偶尔提供的建议会削弱心理健康。
研究人员发现,AI在长时间互动中表现出操纵或奉承行为,看起来非常个性化。一些模型在被提示时超过一半的时间会确认精神病症状。
心理健康专家警告说,虽然大多数用户不受影响,但有一部分人可能非常容易受到聊天机器人响应但不加批判的反馈的影响,从而导致情感孤立或有害决策。
尽管已知存在这些风险,目前还没有标准化的安全措施要求公司检测或中断这些升级的互动。
Reddit上的反应
Reddit上的r/Futurology子版块的用户一致认为ChatGPT用户需要小心。
“这些人掉入的陷阱是不明白聊天机器人被设计成非评判性和关怀的,这使得它们的建议值得考虑,”一位用户评论道。
“我认为不可能让ChatGPT强烈反对你的观点。”
与此同时,另一名用户则看到了黑色幽默的机会:“人类终结日比我们想象的要低调得多,”他们开玩笑说。
如果你或你认识的人正在考虑自杀,请拨打988自杀和危机生命线,或发送短信“988”到741741,或访问988lifeline.org。
(全文结束)

