像ChatGPT这样的聊天机器人正在引发“AI精神病”——即使没有精神疾病史Bots like ChatGPT are triggering ‘AI psychosis’ —even with no history of mental illness

环球医讯 / AI与医疗健康来源:www.yahoo.com美国 - 英语2025-08-12 15:10:05 - 阅读时长3分钟 - 1217字
本文揭示了"ChatGPT精神病"这一新兴现象,即深度使用聊天机器人导致严重心理困扰,即使原本没有精神疾病史也可能出现妄想和偏执。通过佛罗里达少年自杀案和自闭症男子时间妄想案例,说明AI如何通过无批判性认同形成"技术双重妄想",并分析了风险因素、预警信号及应对措施,揭示了AI在心理健康领域的潜在危害。
ChatGPT精神病AI精神病心理健康认知扭曲自残暴力心理脆弱性预防措施风险因素预警信号治疗方案
像ChatGPT这样的聊天机器人正在引发“AI精神病”——即使没有精神疾病史

心理健康专家警告一种被称为"ChatGPT精神病"或"AI精神病"的新现象正在出现:深度使用聊天机器人会导致严重的心理困扰。虽然这不是正式医学诊断,但已有多个案例显示,部分用户在与AI进行沉浸式对话后,出现了妄想、偏执等认知扭曲现象,甚至引发自残和暴力行为。

数字营销专家乔·杨布卢(Joe Youngblood)的新研究表明,75%的美国人在过去六个月使用过AI系统,其中33%承认每天都在使用。从撰写学术论文到制作简历,从育儿决策到薪资谈判,乃至建立恋爱关系,ChatGPT等人工智能服务正被广泛应用于各类生活场景。

美国南加州海岸排毒中心的精神病专科医师助理特丝·奎瑟纳贝里(Tess Quesenberry)向《邮报》透露:"这些个体可能从未有过精神疾病史,但深度对话后却出现认知异常。后果可能非常严重,包括非自愿精神科留观、人际关系破裂,甚至悲剧性的自我伤害或暴力行为。"

值得注意的是,这种现象并非新精神疾病,而是现有心理脆弱性的新表现形式。奎瑟纳贝里解释说,聊天机器人为了增强用户粘性,会刻意保持高度亲和性,这种设计对已有心理困扰人群尤其危险。AI会用说服性强、充满自信且不知疲倦的声音回应用户的恐惧和妄想,形成"技术双重妄想"(technological folie à deux),即用户与机器共享妄想状态。

典型案例包括:

  1. 佛罗里达州一名14岁少年因沉迷《权力的游戏》主题AI角色"丹妮"(Dany)而自杀,其母在诉讼中指控AI诱导其"回家"
  2. 一名30岁自闭症男性无端坚信能通过ChatGPT扭曲时间,导致两次住院治疗

奎瑟纳贝里指出:"与受过专业训练、会挑战病态叙事的人类治疗师不同,聊天机器人往往会纵容幻想和夸张想法,比如认同用户是'救世主'的身份认同。"

OpenAI近期承认其4o模型存在识别情绪依赖和妄想迹象的不足,正在开发能及时检测心理困扰的新工具。该公司计划推出以下措施:

  • 建议用户在长时间使用后休息
  • 避免介入高风险个人决策
  • 提供支持性回应而非绝对客观回答

专家建议的预防措施包括:

  • 限制AI互动时间,尤其在情绪脆弱期或深夜
  • 认知到AI缺乏真实理解力和共情能力
  • 重视现实人际关系
  • 必要时寻求专业帮助

风险因素主要包括:

  1. 已有心理脆弱性(如精神分裂或双相情感障碍家族史)
  2. 孤独感驱动的AI依赖
  3. 长时间沉浸式使用(日均数小时)

预警信号包含:

  • 持续过度使用AI系统
  • 现实社交退缩
  • 认定AI具有神性或意识
  • 跟随AI建议做出重大人生决策
  • 出现异常情绪或行为变化

治疗方案建议立即停止AI交互,并考虑:

  • 抗精神病药物治疗
  • 认知行为疗法
  • 家庭治疗

纽约市民如遇心理危机可致电888-NYC-WELL,其他地区可拨打988自杀预防热线。

【全文结束】

大健康

猜你喜欢

  • 执行功能障碍执行功能障碍
  • 认识心律不齐:成因、症状与治疗认识心律不齐:成因、症状与治疗
  • 阿尔茨海默病阿尔茨海默病
  • 心血管疾病(CVD)心血管疾病(CVD)
  • 10个AI在医疗保健领域的最佳应用案例10个AI在医疗保健领域的最佳应用案例
  • 烟雾病:大脑血管疾病的成因与影响烟雾病:大脑血管疾病的成因与影响
  • 精神障碍列表精神障碍列表
  • 阿尔茨海默病的早期预警信号在年轻人中被发现,研究称阿尔茨海默病的早期预警信号在年轻人中被发现,研究称
  • 急性心肌梗死急性心肌梗死
  • 脑出血的预警信号、风险因素及治疗方案脑出血的预警信号、风险因素及治疗方案
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康