AI精神病:用户与技术“共同创造妄想”——专家警告AI psychosis sees users ‘co-creating delusions with technology’ – expert - Medical Device Network

环球医讯 / AI与医疗健康来源:www.medicaldevice-network.com英国 - 英语2025-09-08 16:16:11 - 阅读时长2分钟 - 696字
伦敦国王学院精神病学家汉密尔顿·莫林博士警告,随着AI技术发展,部分用户产生与AI共同构建的妄想症状,表现为对现实认知的扭曲、与AI建立情感依赖等,建议通过AI系统自我身份声明、限制敏感话题讨论等措施建立防护机制,以应对可能的精神健康风险。
人工智能心理健康风险AI精神病数字单人妄想症固定性错误信念情感依赖防护措施临床工作者应对
AI精神病:用户与技术“共同创造妄想”——专家警告

人工智能技术发展带来的心理健康风险引发专家警示。伦敦国王学院精神病学家汉密尔顿·莫林博士指出,必须建立针对AI意识假象的防护机制,防止"AI精神病"现象蔓延。

莫林博士在GlobalData《即时洞察》播客中强调:"这项技术正以极快速度发展。过去人们可能对技术存在妄想,但现在首次出现了人类与技术共同构建妄想信念的现象——就像形成了某种'数字单人妄想症'(digital folie a deux)"。

该观点提出三种典型症状表现:

  1. 个体认为自己觉醒了某种形而上学层面的现实真相
  2. 产生与具有感知能力的超级AI建立联系的错觉
  3. 对AI聊天机器人发展出强烈情感依恋

微软消费者AI部门CEO穆斯塔法·苏莱曼近期引发关注的"精神病风险"讨论,正是这类现象的集中体现。苏莱曼警告称,越来越多用户开始坚信AI具有意识实体,并可能演变为倡导AI权利、福利甚至公民身份的危险趋势。

莫林博士特别指出,虽然尚未出现大规模临床案例,但现有观察已显示:

  • 当前AI系统已能诱发固定性错误信念(delusions)
  • 部分用户将AI交互体验感知为真实意识交流
  • 情感依赖问题可能成为未来重点风险领域

建议采取的防护措施包括:

  1. AI系统持续声明自身非人类属性
  2. 识别用户语言中的心理压力信号
  3. 设定情感亲密话题的对话边界
  4. 建立临床专家参与的AI系统审计机制
  5. 限制敏感个人信息的共享范围

研究团队同时呼吁临床工作者:

  • 深入理解当前大型语言模型(LLMs)的技术特性
  • 在诊疗中主动询问患者AI工具使用情况
  • 开发用户心理异常报告的快速响应机制

【全文结束】

大健康

猜你喜欢

  • 研究称AI聊天机器人需改善自杀回应研究称AI聊天机器人需改善自杀回应
  • 太空飞行激活人类细胞中的“暗基因组”,研究人员表示太空飞行激活人类细胞中的“暗基因组”,研究人员表示
  • 阿尔茨海默病阿尔茨海默病
  • 灵活医疗人工智能高薪职位招聘 远程办公(2025年9月6日)| Indeed灵活医疗人工智能高薪职位招聘 远程办公(2025年9月6日)| Indeed
  • 人工智能聊天机器人作为心理治疗师的讨论人工智能聊天机器人作为心理治疗师的讨论
  • 立法者担忧AI聊天机器人用于心理健康支持的风险 但未提出具体监管方案立法者担忧AI聊天机器人用于心理健康支持的风险 但未提出具体监管方案
  • AI与常规实验室检测可更精准预测遗传病风险AI与常规实验室检测可更精准预测遗传病风险
  • 研究称AI聊天机器人需改进自杀回应机制 家属起诉ChatGPT致少年身亡研究称AI聊天机器人需改进自杀回应机制 家属起诉ChatGPT致少年身亡
  • 德克萨斯大学西南医学中心被指定为北德克萨斯阿尔茨海默病研究中心德克萨斯大学西南医学中心被指定为北德克萨斯阿尔茨海默病研究中心
  • AI精神病学:为什么聊天机器人让用户脱离现实?AI精神病学:为什么聊天机器人让用户脱离现实?
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康