AI驱动的社交媒体加剧了Z世代的心理健康危机AI-driven social media fuels mental health crisis among Gen Z

环球医讯 / AI与医疗健康来源:www.devdiscourse.com未知 - 英语2025-06-09 22:00:00 - 阅读时长4分钟 - 1961字
研究表明,AI驱动的社交媒体通过算法生成的“过滤气泡”和“回音室”效应,导致青少年暴露于单一视角的信息中,加剧了他们的心理健康问题,包括焦虑、抑郁和社会极化。
Z世代心理健康危机AI驱动社交媒体数字大流行AI算法有害内容网络欺凌极端主义心理韧性三级策略
AI驱动的社交媒体加剧了Z世代的心理健康危机

AI驱动的社交媒体正在加速Z世代的心理健康危机。根据发表在《AI》(2025)杂志上的一篇题为《导航数字迷宫:关于AI偏见、社交媒体和Z世代心理健康的综述》的全面回顾性研究,AI驱动的算法通过情感操纵、数字虚假信息和行为条件反射等机制加剧了心理困扰,从而在全球范围内加剧了青少年的心理健康挑战。

据估计,全球有52.4亿活跃的社交媒体用户,而青少年每天平均花费141分钟在TikTok、Instagram和Snapchat等平台上。该研究将AI驱动的社交媒体参与视为所谓的“数字大流行”的催化剂。研究人员指出,虽然AI通过个性化增强了用户体验,但它也强化了有害的内容循环,将用户的观点过滤成意识形态的回音室,并激励成瘾行为,这些都对年轻人产生了不成比例的影响。

AI算法如何构建有毒的数字环境?

该综述认为,AI算法的架构是塑造青少年有害数字环境的核心因素。为了最大化参与度,这些算法通常优先展示情绪化的内容,尤其是恐惧、愤怒或嫉妒,而不是中立或积极的信息。这种情感触发利用了青少年的心理脆弱性,并推动了一个负面内容曝光的反馈循环。一项美国-英国的研究表明,浏览负面信息直接导致心理健康恶化,表明存在因果和双向关系,这种关系会持续恶化抑郁症状。

此外,AI生成的“过滤气泡”和“回音室”,当算法选择性地呈现与用户先前行为一致的信息时,限制了对多样化观点的接触。这种隔离促进了认知僵化,放大了极端主义、焦虑和社会极化。研究指出,被动消费算法策划的内容与抑郁和焦虑的增加相关,而积极参与则显示出更积极的心理结果。

该综述还强调,AI系统经常因未能过滤掉有害内容而放大负面影响。例如,TikTok和Snapchat等平台与用户的体型不满有关,即使它们在推广身体积极性。研究表明,内容类型比屏幕时间对身体形象的影响更为深远。通过AI支持的“点赞”和通知进一步激励有害行为。通过行为条件反射,这些系统培养了类似成瘾的使用模式,尤其是在易冲动、注意力缺陷或情绪困扰的人群中。

除了算法,谁还在助长数字大流行?

除了AI系统外,该研究还确定了恶意用户和未被诊断的个体作为数字大流行的其他加速器。网络欺凌,由在线匿名性和缺乏问责制驱动,在青少年中广泛存在,并与抑郁症、PTSD和药物滥用有关。社交媒体上的表现压力和比较增加了心理负担,特别是在自我形象和验证方面。女孩受到的影响尤为严重,研究表明她们更容易遭受网络欺凌、身体形象问题和情感退缩。

报告还提到了在数字平台上流传的极端主义和阴谋论意识形态的影响。这些有害叙述常常由政治或意识形态动机的用户推动,利用确认偏差并加剧极化。接触仇恨言论和基于群体的偏见不仅侵蚀了社会凝聚力,还损害了目标青少年的心理健康,滋生恐惧、低自尊和绝望。

特别令人担忧的是图像性虐待(IBSA)的趋势,如未经同意分享露骨图像,现在跨越了性别和社会经济界限。该综述引用挪威数据表明,近3%的青少年在一年内经历了IBSA。此外,在线诱骗变得越来越普遍,操纵策略不再依赖于捕食者的外表,而是依赖于关系动态,使处于情感脆弱状态的年轻人特别容易受到伤害。

值得注意的是,那些未被检测出心理健康问题的用户,通过在网上分享自残内容或痛苦的想法,无意中正常化或鼓励了有害行为。这些数字表达虽然通常是出于宣泄的目的,但可能会引发传染效应,恶化同样脆弱用户的感情状态,并传播适应不良的应对机制。

在个人、社区和全球层面可以做些什么?

该研究建议采取三级策略来对抗数字大流行。在个人层面,青少年必须具备心理韧性和批判性的数字素养。正念练习、压力管理和情绪调节训练被强调为关键干预措施。积极的个性特质、自我控制和韧性也被发现可以调解媒体过度使用与心理伤害之间的关系,为青少年项目提供了希望之路。

在学校和社区层面,研究人员提倡全机构的反网络欺凌干预。这不仅包括基于课程的教育,还包括教师培训、学生咨询和系统性的行为政策。一个被引用的倡议——网络欺凌效应预防(CREEP)项目,使用数字工具早期检测虐待行为,并为受害者、欺凌者和旁观者提供辅导。联合国教科文组织和世界反欺凌论坛也在推广这种综合干预模式。

在国家和国际政策层面,该综述敦促政府、科技公司和卫生专业人员建立伦理AI标准。这些标准包括确保算法设计的透明度、从AI训练数据集中移除有害内容以及实施监管监督。报告引用了经合组织和联合国框架,强调在AI治理中的问责制、包容性和全球合作。建议通过协调各国的“监管沙盒”(实验性法律环境)来促进创新,同时保护心理健康。

该综述以呼吁多学科联盟结束,涉及家长、教育工作者、政策制定者、计算机科学家和心理健康专业人士。这些利益相关者必须优先开发可解释的AI系统,并实施反映社会价值观、保护隐私和支持青少年福祉的内容审核策略。


(全文结束)

大健康

猜你喜欢

  • 佛罗里达州居民的网络疑病症调查结果佛罗里达州居民的网络疑病症调查结果
  • 马匹可能成为未来AI治疗机器人的蓝图马匹可能成为未来AI治疗机器人的蓝图
  • AI应用程序是补充,而非心理健康支持的解决方案AI应用程序是补充,而非心理健康支持的解决方案
  • 大脑变化可减少老年人社交活动大脑变化可减少老年人社交活动
  • 科学证实:社交媒体可能使儿童抑郁科学证实:社交媒体可能使儿童抑郁
  • 忧虑的重量:肥胖对焦虑大脑的影响忧虑的重量:肥胖对焦虑大脑的影响
  • 社交媒体能否预测青少年的健康风险?社交媒体能否预测青少年的健康风险?
  • 德累斯顿团队推出用于肿瘤决策的AI系统德累斯顿团队推出用于肿瘤决策的AI系统
  • AI工具革新传染病预测AI工具革新传染病预测
  • 研究人员测试机器人AI玩偶作为老年人的伴侣研究人员测试机器人AI玩偶作为老年人的伴侣
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康