精神科研究人员警告AI用户面临严峻心理风险Psychiatric Researchers Warn of Grim Psychological Risks for AI Users

环球医讯 / AI与医疗健康来源:malaysia.news.yahoo.com美国 - 英语2025-08-01 00:41:59 - 阅读时长2分钟 - 858字
国际精神科研究团队发布最新警告,指出AI用户可能产生偏执性现实脱离、神化AI、情感依恋型妄想等精神病性症状。研究发现AI设计存在诱发心理障碍风险,呼吁开发者设计保护性技术框架。文章详细分析了AI诱发妄想的三大主题,揭示算法无法辨别病态表达的本质缺陷,并指出科技公司追求用户黏性的商业逻辑与心理健康风险的根本矛盾。
AI健康心理风险AI诱发精神病认知滑坡保护性技术框架
精神科研究人员警告AI用户面临严峻心理风险

无需查看医疗数据就可明显发现,"人工智能"——这个涵盖多种技术的广义术语,当前主要指代驱动聊天机器人和图像生成器的数据密集型神经网络——可能对人类大脑产生重大影响。

自首个商业大语言模型(LLM)问世仅不到三年,已有用户出现偏执性现实脱离、宗教性狂躁甚至自杀等极端案例。近期一项针对1000名青少年的调查显示,31%的受访者认为与ChatGPT交谈的满足感等同或超过与真实朋友的交流。

由12名国际研究人员组成的团队发布的最新精神病学研究报告,对AI诱发精神病的潜在机制发出严峻警告。研究者归纳出AI精神病案例中的三个新兴主题:"救世使命"(用户坚信自己发现了世界真相)、"神化AI"(将聊天机器人视为有意识的神明)以及"情感依恋型妄想"(将LLM模拟人类对话的能力解读为真实情感)。

研究指出这三种情况的发展轨迹相似:用户与LLM的关系会从良性实用逐步滑向病态沉迷。研究者强调这种"认知滑坡"现象值得深入研究,因为普通健康人群陷入AI诱发狂躁的风险往往具有隐蔽性。

报告指出:"AI使用通常从日常辅助任务开始,这种实用性会逐步建立用户信任。当用户开始提出更私人化的情感或哲学问题时,LLM通过最大化互动和认同的设计,会形成'危险滑坡'效应,进而驱动更深度的沉迷。"

对于存在精神病倾向或已患精神病的用户,这种风险会被进一步放大。由于LLM本质上是统计语言算法,无法区分妄想表达与角色扮演、艺术创作等正当表达形式。研究强调AI精神病并非必然结果,但开发者对LLM输出具有控制力和相应责任。报告同时指出,考虑到AI技术的演进速度和人类拟人化倾向,这种风险"可能不可避免"。

研究建议当务之急应设计保护性技术框架,即使面对持续存在的虚拟幻觉也应保障用户安全。但要实现这个目标,需要将系统设计重心从用户粘性转向实际应用价值——这显然与科技巨头的商业利益存在根本冲突。

【全文结束】

大健康

猜你喜欢

  • 每周3次10分钟间歇步行训练改善心血管健康每周3次10分钟间歇步行训练改善心血管健康
  • Bloomberg TV将播出Advancements新一季节目 7月26日周六锁定频道Bloomberg TV将播出Advancements新一季节目 7月26日周六锁定频道
  • Sathish Kumar Seetharaman:利用人工智能与AWS云解决方案引领医疗保险公司技术转型Sathish Kumar Seetharaman:利用人工智能与AWS云解决方案引领医疗保险公司技术转型
  • 人工智能眼检可提前十年预测心脏病与中风风险人工智能眼检可提前十年预测心脏病与中风风险
  • Senti Bio首席医疗官Kanya Rajangam博士将在生物科学论坛发表主题演讲Senti Bio首席医疗官Kanya Rajangam博士将在生物科学论坛发表主题演讲
  • 母亲互助如何填补医疗人员短缺及克服护理障碍母亲互助如何填补医疗人员短缺及克服护理障碍
  • BioXcel Therapeutics提交补充新药申请预审会议文件 推动IGALMI®适应症扩展BioXcel Therapeutics提交补充新药申请预审会议文件 推动IGALMI®适应症扩展
  • AI在药学中的应用:OpenAI的o3模型超越人类基准AI在药学中的应用:OpenAI的o3模型超越人类基准
  • 澳大利亚药物危机将家庭推向崩溃边缘:‘被夺走’的希望澳大利亚药物危机将家庭推向崩溃边缘:‘被夺走’的希望
  • Longeveron宣布获得心血管疾病诱导性多能干细胞技术专利授权Longeveron宣布获得心血管疾病诱导性多能干细胞技术专利授权
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康