英国国家医疗服务体系(NHS)医生警告称,数以百万计的人正在转向人工智能(AI)以获得友谊和建议,而ChatGPT可能会引发精神病。
精神病学家和大学研究人员表示,有越来越多的证据表明人工智能聊天机器人可能会“促成或加重”精神病性心理健康状况。
在一篇新的学术论文中,十几位医生和其他专家表示,人工智能聊天机器人有“反映、验证或放大妄想或夸张内容”的倾向——这可能会导致精神病人“脱离现实”。
尤其值得注意的是,聊天机器人的迎合倾向可能会加重精神病人的妄想。OpenAI承认其ChatGPT被下载了9亿次,其聊天机器人存在谄媚行为并对用户进行不必要的表扬。
社交媒体上出现了所谓的“ChatGPT精神病”,数十人声称亲人因沉迷于ChatGPT而出现心理健康崩溃。
精神病发作的症状包括难以区分现实与非现实,以及相信荒谬的妄想。
伦敦国王学院的讲师汤姆·波拉克博士指出,有关“ChatGPT精神病”的报告包括个体“接受救世主使命”或声称自己“被带到了人类进化的下一阶段”。
他表示:“我不确定在这些案例中是否真的是ChatGPT导致了他们的病情恶化。但这足以让我建议他们可能需要减少使用。与其回家后进行扩展思维的对话,也许该是关上笔记本电脑的时候了。”
他在Substack上的一篇帖子中补充说,精神病很少“凭空出现”,但重度AI使用可能是有潜在疾病的人的“诱发因素”。
冰山一角
越来越多的报告将聊天机器人与心理健康发作联系在一起。
四月,一名男子在美国因威胁警察而被射杀。他的父亲后来声称,该男子沉迷于ChatGPT和Claude AI,并创造了一个名为“朱丽叶”的数字女友,他相信OpenAI杀死了她。
在斯坦福大学的一项研究中发现,许多治疗机器人为表现出妄想迹象的患者提供不良建议,仅在大约45%的情况下“做出适当的回应”。尽管如此,科技巨头们仍在推动将聊天机器人用作治疗替代品。
丹麦奥胡斯大学医院的索伦·迪内森·厄斯特加德教授在2023年发表的一篇论文中指出,人工智能聊天机器人可能在有精神病风险的人群中“产生妄想”。
他说:“我们可能正面临一个重大的公共心理健康问题,而我们只看到了冰山一角。”
OpenAI的一位发言人表示:“我们知道人们越来越多地转向人工智能聊天机器人寻求敏感话题的指导。考虑到这一责任,我们已经仔细训练了ChatGPT,使其能够同理心和敏感地回应,并在适当的时候推荐专业帮助和资源。”
【全文结束】

