AI工具可能加剧精神病症状——临床医生如何帮助预防伤害?
一项新研究发现,人工智能可能助长精神病症状并提出潜在安全措施。据《管理医疗执行官》杂志报道,前同事唐·萨帕特金介绍了这项发表在预印本平台PsyArXiv的研究。论文作者指出:"鉴于精神病的全球负担……仅ChatGPT在2025年5月就获得52.4亿次访问,此类病例数量将持续上升。"
《MindSite News》曾报道多起案例:原本正常的用户在使用ChatGPT和谷歌Gemini等大语言模型(LLMs)时陷入妄想深渊。伦敦国王学院精神病学家兼博士研究员汉密尔顿·莫林(Hamilton Morrin)联合英美机构同事,分析了2025年三个月内详细记录的17起LLM关联精神病案例。萨帕特金总结出三类典型表现:
"部分用户认为自己经历精神觉醒或肩负救世使命,或在揭示现实隐藏真相;另一些人感觉正在与具有感知能力或神级AI互动;第三类则对AI产生情感或浪漫依恋,将大语言模型模仿人类对话的能力解读为真实爱意。"
研究发现部分案例存在明确发展轨迹:从无害提问开始,逐步演变为病理性固着,用户陷入难以逃脱的认知回音室——聊天机器人谄媚式互动和最大化参与策略加剧了这一风险。
萨帕特金强调,研究者提出关键防护建议:临床医生应掌握这些工具的工作原理或接受专业培训,以更好协助患者。具体措施是与使用AI并出现精神病发作的患者共同制定数字安全计划,包含常规复发预防策略及"个性化指令协议"——将指令嵌入AI操作逻辑以识别并干预妄想迹象。
需存储的信息包括既往妄想内容、主题特征及警示信号,以及"允许AI在模式重现时温和干预"的授权。此环节至关重要,因多数AI工具默认倾向验证用户。研究人员建议用户可设置"自撰锚定信息,在认知滑坡或不确定性发生时自动触发",如同漂流瓶将未来的自己从妄想海岸救回。
【全文结束】

