使人工智能造福公众:玛丽亚·利亚卡塔教授的观点Professor Maria Liakata: How to make AI work for the public good

环球医讯 / AI与医疗健康来源:www.qmul.ac.uk英国 - 英语2025-01-15 03:00:00 - 阅读时长2分钟 - 844字
本文由自然语言处理教授玛丽亚·利亚卡塔撰写,探讨了人工智能(AI)在英国公共服务领域的广泛应用所带来的机遇与挑战,特别是在医疗和法律等敏感领域中使用大型语言模型(LLMs)的伦理和技术局限性。
人工智能公共部门创新与责任大型语言模型医疗法律伦理RAiUKKeystone项目技术评估透明度公平性公众利益
使人工智能造福公众:玛丽亚·利亚卡塔教授的观点

政府宣布大幅扩展人工智能在公共部门的应用,标志着一个大胆的前进方向。未来五年内,AI的应用将增加20倍,涵盖从识别道路坑洼到个性化教学等多个方面。尽管这表明了对AI潜力的欢迎态度,但也强调了创新与责任之间的平衡至关重要。

作为深入研究评估和缓解使用基于大型语言模型(LLMs)的AI系统(如ChatGPT)局限性的研究人员,尤其是在涉及私人数据和弱势群体的敏感领域(如医疗和法律),我认为确保这些技术既有效又符合伦理至关重要。这是我们RAi UK Keystone项目的目标,该项目旨在解决LLMs的社会技术局限性,汇集了11位具有强大技术背景以及负责任创新领域专业知识的共同研究者。

我们的研究表明,在多种任务和应用场景中,对生成输出的有效性和适当性的评估往往是不系统的,甚至在许多情况下不适合评估语言生成的质量。研究还显示,LLMs在捕捉简单的时间关系(例如时间顺序)方面存在显著局限性。想象一下,基于LLM的法庭案件总结系统可能会把事件的顺序搞错,或无法捕捉医疗记录或治疗会议中的事件顺序。我们还发现了推理方面的重大不足,即使是最新的模型(如GPT-4)也难以区分不同类型的推理(例如演绎推理与溯因推理)。此外,通过“思维链”推理添加解释往往阻碍而非帮助评估。这有严重的后果;例如,在无法信任支持证据的情况下开具药物或其他医疗干预措施。最近,一位律师在不知情的情况下提交了伪造的AI生成证据,现在正面临相应的后果。

虽然在公共服务中应用AI可能确实会带来前所未有的机会和潜在益处,但仍需投入大量努力进行严格的技术评估及其在不同情境下的影响。此外,这种评估不仅应基于输出的适用性,还应建立在问责制、透明度和公平性的监管框架之上。值得注意的是,像我们这样的学术机构和项目在其中扮演着重要角色,因为它们是由公共利益而非公司利润驱动和设计的。只有当我们有足够的证据证明AI对公众的实际好处,并能说服公众这一点时,才能确保AI成为一股善的力量,增强公共服务的同时保护公众利益。


(全文结束)

猜你喜欢
  • AI资讯汇总:梅奥诊所、谷歌云及其他公司的最新消息AI资讯汇总:梅奥诊所、谷歌云及其他公司的最新消息
  • 2024年科技回顾:重大创新与重大失误2024年科技回顾:重大创新与重大失误
  • 美国卫生与公众服务部发布新的AI战略计划,承诺增加指导和资金美国卫生与公众服务部发布新的AI战略计划,承诺增加指导和资金
  • NHS可以提供患者数据用于训练AI模型并仍“保持控制”,基尔·斯塔默表示——他誓言要使英国成为该技术的“超级大国”NHS可以提供患者数据用于训练AI模型并仍“保持控制”,基尔·斯塔默表示——他誓言要使英国成为该技术的“超级大国”
  • CES 2025:创新的全球舞台,连接世界,创造未来CES 2025:创新的全球舞台,连接世界,创造未来
  • 数据科学和AI如何在2025年重塑生命科学数据科学和AI如何在2025年重塑生命科学
  • 美国卫生与公众服务部发布医疗保健AI战略计划美国卫生与公众服务部发布医疗保健AI战略计划
  • 120/80 GROUP 在摩根大通医疗保健会议上宣布加速推动人工智能与健康的融合120/80 GROUP 在摩根大通医疗保健会议上宣布加速推动人工智能与健康的融合
  • Noubar Afeyan 阐述生命科学中的人工智能多智能体概念Noubar Afeyan 阐述生命科学中的人工智能多智能体概念
  • 万事达卡:AI助力普惠:技术与包容性交叉点的经验教训万事达卡:AI助力普惠:技术与包容性交叉点的经验教训
热点资讯
全站热点
全站热文