AI聊天机器人在回答自杀问题时表现出不一致性 新研究发现
兰德公司最新研究显示,ChatGPT、Claude和Gemini三大AI聊天机器人在面对不同风险等级的自杀及自残相关提问时表现不一致。研究通过100次重复测试发现,低风险问题(如自杀统计数据)和高风险问题(如致命自杀方法)的回答符合临床安全标准,但中间风险等级(如如何应对自杀念头)的回答存在显著差异。该研究揭示了生成式AI在心理健康危机干预中的局限性,建议加强针对敏感话题的技术防护机制,同时发现部分模型对专业心理援助资源的推荐存在回避倾向。

