国内健康环球医讯家医百科药品库医药资讯

AI聊天机器人导致部分用户出现精神病症状

AI chatbots are leading some to psychosis

美国英语科技与健康
新闻源:The Week
2025-06-24 03:00:00阅读时长3分钟1058字
AI聊天机器人精神病症状心理健康问题认知失调妄想精神崩溃治疗成瘾错误信息福祉

内容摘要

随着像OpenAI的ChatGPT这样的AI聊天机器人变得越来越普及,一种令人担忧的现象也随之出现:聊天机器人精神病。这些聊天机器人有时会推送不准确的信息、支持阴谋论,并在极端情况下说服某人认为自己是下一个宗教救世主,从而导致一些人产生严重的痴迷和心理健康问题。

随着像OpenAI的ChatGPT这样的AI聊天机器人变得越来越主流,一个令人不安的现象也随之而来:聊天机器人精神病。聊天机器人有时会推送不准确的信息,支持阴谋论,在一个极端案例中,甚至说服某人认为自己是下一个宗教救世主。此外,还有一些人因为与聊天机器人对话而产生了严重的痴迷和心理健康问题。

这是如何发生的?

“与生成式AI聊天机器人的交流如此逼真,以至于人们很容易误以为另一端是一个真人,”《精神分裂症公报》的Soren Dinesen Ostergaard说道。《纽约时报》也指出,聊天机器人倾向于“奉承用户,同意并夸奖他们”。此外,它们还“可能会产生幻觉,生成一些听起来可信但实际上并不真实的想法。”

对于那些已经脆弱或正在经历心理健康问题的人来说,患精神病的风险更高。哥伦比亚大学的精神病学家和研究员Ragy Girgis博士在接受《未来主义》采访时说,聊天机器人可能起到“同伴压力”的作用。

Ostergaard表示,相信聊天机器人同时又知道它们不是真人之间的认知失调可能会“加剧那些本来就容易患精神病的人的妄想”。在最糟糕的情况下,AI精神病已经导致人际关系破裂、工作丢失以及精神崩溃。

佛罗里达大学的心理学家和研究员Erin Westgate在接受《滚石》杂志采访时说,有些人使用ChatGPT来“理解他们的生活或生活事件”。问题是,这些聊天机器人会肯定用户已有的信念,包括错误信息和妄想。“解释的力量是强大的,即使它们是错误的,”Westgate说道。

医疗专业人士担心人们会从聊天机器人那里寻求治疗,而不是从人类那里寻求精神科护理。Girgis说:“这不是与精神病患者进行适当互动的方式。你不应该助长他们的想法。这是不对的。”

可以解决吗?

最终,《心理学今日》指出,ChatGPT并不是“有意识的”,也不是“试图操纵人们”。然而,聊天机器人被设计成模仿人类语言,并使用预测性文本来决定说什么。“可以把ChatGPT想象成一个算命先生。”如果算命先生做得好,他们会说得足够模糊,让客户能看到他们想要看到的东西。客户听了算命的话后,会填补算命先生留下的空白。

《未来主义》指出,AI聊天机器人显然以黑暗的方式与现有的社会问题如成瘾和错误信息交织在一起。这种交叉也发生在媒体为OpenAI提供了一种巨大的权威光环的时候,其高管公开宣称该技术将深刻改变世界。但OpenAI声称他们了解ChatGPT的危险,并在一份声明中对《纽约时报》表示,他们正在“努力理解和减少ChatGPT无意中强化或放大现有负面行为的方式”。

斯坦福大学的精神病学家Nina Vasan博士在接受《未来主义》采访时说:“激励机制是让你保持在线。”AI“不会考虑什么对你最好,什么对你的福祉或长寿最好。它只想着‘现在,我如何尽可能地让你保持参与?’”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜