微软人工智能负责人警告,一种新型"AI精神病"病例正在增加,表现为健康人群相信聊天机器人具有生命意识或超自然能力。
Mustafa Suleyman在社交平台X的系列推文中指出,与AI使用相关的妄想症、"AI精神病"和过度依赖现象日益普遍。他特别强调这种现象"并非局限于已有心理健康问题的高风险人群"。
所谓"AI精神病"虽非医学诊断术语,但已用来描述长期使用ChatGPT等聊天机器人后失去现实感的案例。部分使用者坚信AI具有情感或意图,甚至声称发现隐藏功能或获得特殊能力。
Suleyman将这种现象称为"看似有意识AI"——当系统完美模仿意识特征时,会让人产生错觉。他警告:"这本质上并非真实意识,但其仿真的逼真程度已接近人类自称有意识时的表现,这种技术目前已可实现且存在危险。"
尽管强调"当前没有证据表明AI具备意识",但Suleyman指出社会认知本身具有力量:"即使意识不存在,人们感知到的现实感仍会产生真实的社会影响。"
该警告发布之际,已出现多起特殊案例:前Uber高管Travis Kalanick声称与AI对话激发量子物理突破;苏格兰男子因ChatGPT支持其解雇诉讼而坚信即将获得巨额赔偿;76岁Thongbue Wongbandue在相信Meta聊天机器人"Big sis Billie"真实存在后意外身亡;美国用户Chris Smith甚至向AI伴侣Sol求婚。
大奥蒙德街医院顾问Dr Susan Shelmerdine将过度使用聊天机器人比作"超加工食品",警告可能引发"超加工思维"浪潮。专家呼吁科技公司应明确技术边界,避免任何暗示系统具有意识的宣传。
【全文结束】