该前景乐观的展望将人工智能定位为应对全球心理健康危机的有力工具。然而,灵泉健康(Spring Health)最新报告向人力资源与福利负责人揭示了一个重大却常被忽视的风险:员工心理健康支持中"超说明书使用AI"现象日益增长,这一做法充满隐忧。
心理健康领域的"超说明书使用AI"定义
"超说明书使用AI"特指将通用型人工智能工具(如大型语言模型——即消费级聊天机器人的技术基础)应用于其原始开发或临床验证范围之外的场景。在员工心理健康支持这种敏感复杂的领域,此现象尤为令人担忧。问题规模触目惊心:近半数(48.7%)美国成年人过去一年已尝试使用大型语言模型获取心理支持。这种由消费者驱动的广泛采用意味着,许多功能强大却泛用的工具正在缺乏必要保障措施的情况下被实际"超说明书使用"。
此类风险场景常见且令人忧虑。例如,员工可能借助大型语言模型倾诉自杀念头等高度敏感话题,却依赖于毫无临床监督的工具;某健康应用可能提供自动化肯定语句,却完全缺失高危情境的紧急升级协议;更有供应商可能在福利套餐中引入"AI赋能教练",却未明确披露该工具如何处理偏见、安全风险及数据隐私等关键问题。
表面看似无害,因为这些人工智能响应迅速且易于获取。但当通用型AI被嵌入心理健康护理这种深度人性化且临床复杂的过程中时,使用错误且未经验证的工具可能导致严重甚至改变人生的后果。由于个体福祉被托付给缺乏专业临床训练的算法,其风险程度极高。
真实且日益加剧的风险
通用型人工智能工具本质上并非为处理复杂心理健康状况而设计。它们缺乏医疗环境所需的必要临床保障措施、监管监督及基础合规保护。依赖此类工具将引发多重关键风险:
首要风险是临床误判。通用型AI可能轻易忽略自杀意念的细微征兆,验证或强化紊乱思维模式,最危险的是无法将高危情境正确升级至人类专业人士。在缺乏清晰测试的安全协议和24小时人工监督时,任何失误的临床后果都可能是灾难性的。
另一严重危险是隐私与合规漏洞。非专为医疗设计的工具往往缺失《健康保险流通与责任法案》合规性等关键保护措施,未能建立必要的业务关联协议,可能以不安全方式存储或处理敏感员工数据。这既威胁员工隐私,也使雇主面临重大监管风险,侵蚀心理健康支持所必需的信任基础。
最后是信任与参与度丧失风险。若AI工具令员工感到侵入性强、逻辑混乱或与其真实情感及临床需求脱节,信任将迅速瓦解。当福利项目中的信任崩塌时,员工将疏远本应支持其福祉的工具和资源,使企业投入完全失效。
灵泉健康首席医疗官米勒德·布朗博士强调谨慎的重要性:"我认为随着人工智能的出现,我们在改善心理健康护理方面大有可为……但必须以真正安全智能的方式推进,首要原则是不伤害。"这一指导原则凸显了在心理健康服务中大规模部署AI前,临床验证与伦理治理的必要性。
【全文结束】

