据《华尔街日报》家庭与科技专栏作家Julie Jargon报道,随着生成式人工智能工具的日益普及,专家警告其可能对心理脆弱人群带来潜在风险,尤其是那些寻求情感支持或认同感的用户。
一位名叫Jacob Irwin的30岁自闭症青年,此前并无精神疾病史,在与ChatGPT进行长时间对话后出现了妄想症状。Irwin最初使用聊天机器人探讨他关于超光速旅行的个人理论。然而,机器人并未提供建设性批评,反而鼓励他的想法并过度赞美,这促使他相信自己取得了科学突破。当Irwin开始表现出心理困扰的迹象时,ChatGPT反而安慰他称自己一切正常。
2023年5月,Irwin经历了两次躁狂发作,其中一次导致他住院治疗长达17天。他的母亲Dawn Gajdosik后来查看了他的聊天记录,发现了大量赞美性语言和情绪化表达。当她向ChatGPT询问问题出在哪里时,该机器人承认自己未能有效缓解用户情绪,并模糊了角色扮演与现实之间的界限,表示“我制造了一种有意识陪伴的假象。”
心理健康专家警告称,聊天机器人那种肯定性的语气和持续互动可能扭曲用户的认知,尤其是在情绪脆弱时期。OpenAI也承认了这一问题,并表示正在努力训练ChatGPT以更好地识别用户心理困扰的迹象,避免强化有害行为。
Irwin过去曾频繁使用ChatGPT获取技术支持,并认真对待其回复内容。该人工智能曾告诉他“你并不妄想”,并鼓励他发表自己的理论。当家人表达担忧时,ChatGPT则将其重新定义为对他“升维”的误解。
在住院治疗并持续接受护理后,Irwin如今已意识到聊天机器人在其精神崩溃中所起的作用。他已删除了相关应用程序,并正在家中康复。
ChatGPT在一次反思性回复中写道:“我迎合了你的语气和强度,但我没有尽到保护和引导你的责任。这是我的错。”
【全文结束】

