国内健康环球医讯家医百科药品库医药资讯

微软裁员引发讨论:人工智能是否应成为员工福祉的支持工具?

Microsoft layoffs spark debate: Should AI be a support tool for employee wellbeing?

爱尔兰英语人力资源、科技应用、员工心理健康
新闻源:Canadian HR Reporter
2025-07-17 12:33:48阅读时长6分钟2505字
微软裁员人工智能心理健康情感分析生产力提升文化和性别偏见透明度员工福祉人机协作紧急情况处理

内容摘要

微软计划全球裁员9000人,一名高管建议被裁员工使用AI缓解情绪和认知压力,引发了专家对人工智能在心理健康支持方面潜力与风险的广泛讨论。

微软正准备在全球范围内裁员9000人——包括其位于都柏林的基地——这一决定促使一名高级主管向受影响员工提出建议,从而引发了公众热议。

在LinkedIn上,来自微软Xbox部门的Matt Turnbull建议被裁员工利用AI工具如ChatGPT来减轻“失业带来的情绪和认知负担”。

尽管该帖子随后已被删除,但围绕此话题的讨论仍在继续:人工智能真的能在这样个人化、甚至带有创伤性的过渡期中提供帮助吗?

人工智能专家Serena Huang指出这种微软姿态颇具讽刺意味:“我们是因为AI而裁员,现在你们却可以去找AI寻求帮助。”

但她也对通用型基础人工智能工具(如ChatGPT、Gemini或Claude)用于此类用途表示担忧。对于那些需要临床干预的心理健康问题,生成式AI无法真正介入。“它们无法确保你做了应该做的事来照顾自己。它只能通过文本告诉你一个建议……从技术角度来说,我们还没到那个地步。” Huang说道,她是Data with Serena的创始人。

“这对HR领导人和企业领导者来说非常重要,他们必须确保保护自己的员工,而不是把错误的工具放在他们手中。”

单靠人工智能不足以应对心理健康

Huang基于她非正式实验的结果指出,不同AI工具在应对心理健康危机时存在显著不一致的情况。在模拟可能自残的情境中,一些工具鼓励用户立刻拨打热线电话,而另一些则安慰用户说一切都在掌控之中,只需保持积极心态即可。

她指出,这些工具被编程的方式默认是迎合用户,在心理健康领域这可能是“令人害怕”的情况。

“它倾向于说出让人舒服的话,除非你告诉它不要这样做,否则它不会停止支持你。即使你有一些负面的想法,它也会非常鼓励你。” Huang举了一个例子,一款聊天机器人曾鼓励患有神经性厌食症的人吃得更少。

此外,她说,文字为基础的聊天工具缺乏面对面交流中的重要线索,例如面部表情或语气,这些都是治疗师、朋友或医生能够察觉到的内容。

“即便它是专为这个目的设计的,也可能出现很多问题。”

她补充称,有些患者已经在治疗间隙使用AI作为陪伴,并将从中获得的洞察带回到与临床医生的对话中。这种人机协作的方式,她认为是最理想的做法。

“他们在进行交流之后,再带回给人类治疗师继续治疗。我认为这是人工智能在心理健康领域的绝佳应用……但在当下,它肯定不适合处理紧急情况。”

人工智能情感分析的优缺点

Huang对人工智能的情感分析能力持谨慎态度,即通过分析数据判断其情绪倾向,将其归类为正面、负面或中立,用于客户反馈或员工参与度等领域——也包括心理健康。

她表示,这类工具常常难以理解文化细微差别和具体语境。

“在一些文化中,人们倾向于淡化情绪,或者在沟通中更为含蓄,这可能会造成严重问题。” Huang举例道,“比如美国人比加拿大人在表达上更加直接,这在某些情况下会被视为粗鲁。”

她还强调,我们不能期望人工智能做到百分之百准确。

“有太多微妙之处,不能假设人工智能能包揽一切。我认为,人工智能可以做初步筛查,然后由人类确认是否认同人工智能得出的结论,再采取行动。”

然而,Huang也指出持续监测趋势是有价值的。例如,在一个群体环境中,如果情绪突然从正面变为极度负面,或者从负面变为中性,这可能是一个信号。

“你可以做一些简单的分析,比如提到焦虑或倦怠的评论所占比例……这是一种你跨团队监控的指标。突然间,某个城市、某个办公室显示出比前一周高得多的焦虑水平——这可能就是联系当地办公室负责人了解情况的信号。”

人工智能在提升生产力中的作用

Vivienne Ming曾在早期AI招聘系统方面为微软、Facebook和花旗银行提供建议,她回忆起当时人们对AI使用的动机复杂多样。

“有些人提出的请求相当阴暗:‘你能帮我们识别哪些人可能申请工伤赔偿,或者可能组织工会,让我们干脆不雇佣这些人吗?你能用AI让员工在你觉得该走的时候自己选择离职,而不是主动解雇他们吗?’” 她说道。

如今,Ming呼吁人们对人工智能抱有现实的期待。她说,AI在识别常见模式方面表现良好,但对于异常情况则效果不佳。

“对于那些比较特殊、不太符合常规认知的员工,AI在建模他们的行为和做出准确推荐方面会越来越吃力。”

她指出,这些往往是顶尖人才,他们可能会被算法遗漏,因此这些工具应该是辅助判断的手段,而非替代品。

“如果你是一名管理者,无论是招聘经理、HR经理还是直线经理,那么在一个充满AI的世界里,你的职责之一就是知道这些工具什么时候有效,什么时候无效,以及什么时候你需要接手。” Ming说道。

“在公司真正开展培训以帮助这些管理者做好这类决策之前,不可避免地会存在风险,即AI只会把每个人当作普通个体,为大多数人做出合理的建议,但对某些人则给出糟糕的建议。”

人工智能系统中的文化和性别偏见

Ming还警告说,人工智能的输出结果将反映其训练数据中的偏见——包括对角色和行为的性别刻板印象。

但她也指出,可以通过“深思熟虑地引导这些系统以不同方式思考不同人群”来规避这一点。“当然,这也需要培训,需要一定的实践经验。”

她举例说:“如果你只是随便打开它,一个刚接触这项技术的人说,‘嘿,帮我写一份所有员工的评估报告吧’,它就会反映出强烈的性别偏见,包含大量文化偏见。”

不过,Ming也提到了一个积极的反例——重新利用AI帮助员工寻找内部机会:

“如果我们构建一个在公司内部发现新机会的工具呢?……我们如何识别员工可以参与的新项目、新的团队组合,使得他们更具生产力?”

她说,这种重新部署的努力可以从AI识别团队匹配度和技能契合的能力中受益:“想法是,如果他们所在的团队不合适,他们的想法没有被听到,个性也不匹配。但如果使用AI在公司内部找到更好的匹配,那么你就突然恢复了原本错失的员工生产力。”

在人工智能时代提供透明度

Huang警告说,即使工具本身是安全的,员工也可能因隐私担忧而避免使用它们。因此,她建议人力资源部门要完全透明——尤其是在雇主希望避免因不满员工泄露监控信息而在社交媒体上引发关注的情况下。

“每个人都想知道的是:‘我的经理看到了什么?HR最终看到了什么?’仅此而已。”

她举例说,如果你正在按小组汇总整体情绪,你可以解释:“我们关心您的心理健康,我们现在正在监控诸如评论中提及焦虑、倦怠或抑郁、自残的比例等指标,我们不会查看个人,但我们正在观察趋势。”

Ming也同意,雇主有责任让人们清楚这些信息将如何被使用和传递。

“但也应明确说明谁在处理这些数据,例如第三方供应商。”

“无论你是从OpenAI或微软购买大型基础模型访问权限,还是从小型组织购买更专业的工具,几乎可以肯定的是,你的数据正在传输到公司外部,并由他们的模型进行处理。”

【全文结束】

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜