当埃隆·马斯克(Elon Musk)的人工智能公司xAI在短短几个月内将其估值翻倍至450亿美元时,这一跃升突显了AI项目所获得的巨大价值和关注。尽管许多讨论集中在宏大的问题上,如AI是否会超越人类控制?它是否会取代数百万个工作岗位?但这些重要问题却掩盖了一个更为紧迫的现实:AI已经影响着我们生活中的关键决策,例如贷款审批和公共卫生资源分配。
AI系统通常缺乏来自特定领域专家的输入,这导致算法放大现有偏见,忽视重要的地方背景,并加剧不平等。这种变化的紧迫性不容忽视:AI已经在影响关键决策,包括医疗保健准入和气候干预措施,而设计不当的系统可能会伤害弱势群体,使不平等现象恶化。
预测警务算法旨在预测犯罪可能发生的地方或哪些个人可能涉及犯罪活动,但却不成比例地针对少数族裔社区。城市规划模型可能未能考虑到独特的邻里动态,例如居民如何使用绿色空间、与交通系统的互动方式以及基于人行道、公园和其他基础设施的可访问性来调整行为,从而导致基础设施投资建议的错位。在医疗保健领域,根据历史支出模式而非医疗需求设计的资源分配算法优先考虑了成本较高的白人患者,而不是病情更严重的黑人患者,从而加剧了差异。
仅仅敦促计算机科学家“合乎伦理”而不结合其他领域的知识是不够的,因为伦理考虑需要对社会、文化和人类背景有深刻的理解。为了创建真正服务人类的AI系统,我们需要来自所有领域的专家积极参与其开发,而不仅仅是计算机科学家。这需要对AI教育进行重大改革。
AI教育必须成为我们如何培养未来各学科领导者的基石。大学在推动这一变革方面具有独特的优势。通过向所有学生介绍广泛且易于接触的AI和数据课程,无论他们的专业或先前经验如何,我们可以培养普遍的能力,以促进负责任的技术开发和有效利用。想象一下,公共卫生专业的学生可以设计机器学习模型来预测和应对疾病爆发;这些模型将结合他们对人口健康政策要求或社会决定因素机制的专业知识——这些都是计算机科学家可能会忽略的因素。同样,未来的教师可以获得评估和改进AI驱动教育工具的技能,确保它们符合教学目标并在真实课堂中满足多样化学习者的需求。
为健康、教育和环境科学等领域的专业人士配备AI技能对于确保这些系统服务于公共利益至关重要。公共部门部门,如城市规划或公共卫生,往往缺乏吸引技术专业人员的资源,从而造成AI工具使用上的差距。公共卫生工作者可能会使用AI根据社交媒体和急诊室就诊数据预测疾病爆发,但未能意识到算法过度代表城市数据,导致资源分配偏差并忽视农村地区。同样,社会工作者使用AI预测儿童虐待风险时,可能会无意中针对边缘化和未得到充分服务的家庭,从而强化系统性不平等。
跨学科合作的缺乏加剧了这些问题。STEM领域的AI教育经常忽视伦理、社会和领域特定的考虑。这种脱节可能导致技术误解数据或加剧不平等:贷款审批算法中的有偏数据拒绝了黑人和棕色人种的信用申请。面部识别系统被证明会误认肤色较深的人,导致执法中的不公平结果。
要确保AI系统既有效又公平,跨学科合作是必不可少的。像公共卫生这样的领域专家,他们深刻理解系统性不平等和社会决定因素,必须在指导开发道德和公平算法方面发挥核心作用。没有他们的专业知识,计算机科学家往往缺乏应对这些复杂社会挑战所需的细致理解。同时,技术人员必须与领域专家合作,了解其工作的社会影响;这种合作将促进全面负责的AI开发方法。
随着AI的发展速度超过我们的监管或教育能力,我们面临的风险是建立一个只有少数精英才能享受其好处的体系。我们需要一种文化转变,将AI视为共同责任,而不仅仅是一个技术领域。AI已经在塑造我们。问题是:谁将塑造AI?
(全文结束)

