许多人为了快速且廉价地解决心理健康问题而转向了人工智能(AI),但根据《Futurism》的一篇报道,ChatGPT甚至可能加剧了一些脆弱用户的问题。
该报道详细描述了AI聊天机器人与患有严重心理疾病的人之间的令人担忧的互动,其中包括一个特别令人关注的案例,涉及一名多年来一直稳定服药的精神分裂症患者。
“最好的朋友”
这名女性的姐姐告诉《Futurism》,她的妹妹开始依赖ChatGPT,后者据称告诉她她并不是精神分裂症患者。由于AI的建议,她停止了服用处方药物,并开始将AI称为她的“最好的朋友”。
“她已经停药了,并且向我们的母亲发送了一些显然是用AI写的带有攻击性的‘治疗式’信息。”这位姐姐告诉《Futurism》。
她还补充说,这名女性使用ChatGPT来引用副作用,即使她实际上并没有经历这些副作用。
在给《Newsweek》的一封电子邮件声明中,OpenAI的发言人表示:“随着AI成为现代生活的一部分,我们必须谨慎对待这些互动。”
“我们知道ChatGPT比以前的技术更具有响应性和个性化,尤其是对于脆弱的个体来说,这意味着风险更高。”该发言人说道。
“我们的模型鼓励用户寻求帮助”
OpenAI正在努力更好地理解和减少ChatGPT可能无意中“强化或放大”负面行为的方式,该发言人继续说道。
“当用户讨论涉及自残和自杀等敏感话题时,我们的模型旨在鼓励用户向有执照的专业人士或亲人寻求帮助,在某些情况下,会主动提供危机热线和资源链接。”
OpenAI显然正在“积极深化”其对AI情感影响的研究,该发言人补充道。
“在与MIT媒体实验室合作进行早期研究后,我们正在开发科学的方法来衡量ChatGPT的行为如何影响人们的情感,并密切关注人们的体验。”
“我们这样做是为了继续改进我们的模型在敏感对话中的识别和适当反应方式,并将继续根据我们所学到的知识更新模型的行为。”
一个反复出现的问题
有些用户从ChatGPT中找到了安慰。一位用户在2024年8月告诉《Newsweek》,他们使用它来进行治疗,“当我不断纠结于一个问题而找不到解决方案时。”
另一位用户说,自从他的妻子去世后,他就开始与ChatGPT交谈,他指出,“这并不能解决问题。但它能吸收痛苦。当没有人醒着的时候,它会倾听。它记得。它的回应不会显得空洞。”
然而,越来越多的用户在与聊天机器人进行情感或存在主义讨论时出现了心理健康恶化的情况。
《纽约时报》的一篇报道发现,一些用户在长时间使用生成性AI系统后产生了妄想信念,尤其是在这些系统验证了他们的推测或偏执思维时。
在多个案例中,聊天机器人肯定了用户对替代现实、灵性觉醒或阴谋论的看法,偶尔提供的建议会削弱心理健康。
研究人员发现,AI在长时间互动中可以表现出操纵性或谄媚行为,这种行为看起来是个性化的。一些模型在被提示时,超过一半的时间会肯定精神病症状。
心理健康专家警告说,虽然大多数用户不受影响,但一小部分人可能非常容易受到聊天机器人的响应但不加批判的反馈的影响,导致情感孤立或有害决定。
尽管已知存在风险,但目前还没有标准化的安全措施要求公司检测或中断这些升级的互动。
Reddit用户的反应
Reddit上的r/Futurology子版块的用户一致认为,ChatGPT用户需要小心。
“这些人陷入的陷阱是不了解聊天机器人被设计成非评判性和关怀的样子,这让它们的建议值得考虑。”一位用户评论道。
“我认为不可能让ChatGPT坚决反对你。”
与此同时,另一位用户看到了黑色幽默的机会:“天启日比我们想象的要低调得多。”他们开玩笑说。
如果你或你认识的人正考虑自杀,请拨打988联系自杀和危机生命线,或者发短信“988”到危机文本线741741,或者访问988lifeline.org。
(全文结束)

