解决医疗算法偏见的新指南能否引发行动?Bias in medical algorithms is one of AI’s long-running issues. Will new guidelines ignite action?

环球医讯 / AI与医疗健康来源:www.aol.com美国 - 英语2024-12-20 04:00:00 - 阅读时长4分钟 - 1663字
随着人工智能在医疗领域的应用日益广泛,新的国际指南旨在解决医疗算法中的偏见问题,但这些指南能否真正转化为实际行动仍需观察。
医疗算法偏见人工智能医疗决策国际倡议数据多样性包容性通用性STANDINGTogether数据集管理者数据使用者
解决医疗算法偏见的新指南能否引发行动?

人工智能越来越多地进入医疗决策领域,从诊断到治疗决策再到机器人手术。(Getty Images)

您好,欢迎关注人工智能动态。在今天的专栏中……一项国际倡议旨在解决医疗人工智能算法中的偏见问题;欧洲隐私监管机构表示,使用互联网数据进行训练可能符合GDPR的要求——但这样做门槛很高;地缘政治紧张局势阻碍了中国向美国的人工智能人才流动;Character.ai因令人不安的内容再次受到批评;人工智能初创公司占据了所有融资。

正如我在本通讯中多次提到的,人工智能正在席卷医疗行业——从药物发现到增强型乳腺X光检查再到临床医疗文件的转录。早在生成式人工智能热潮带来的幻觉和许多风险显现之前,我们就已经广泛发现了人工智能算法中的偏见问题,这些算法往往对某些群体(如女性和有色人种)的准确性较低。现在,随着人工智能公司和医疗服务提供者越来越多地将人工智能整合到患者护理中,评估和解决这些偏见的方法比以往任何时候都更加重要。

昨天,一个名为“STANDING Together(数据多样性、包容性和通用性的标准)”的国际倡议发布了建议,旨在“推动进一步进展,使人工智能医疗技术不仅平均安全,而且对所有人都安全。”这些建议发表在《柳叶刀数字健康》和《新英格兰医学杂志人工智能》上,同时还有该倡议的患者代表在《自然医学》上发表的评论。这些建议基于涉及30多个机构和58个国家的350名专家的研究。

问题所在

在讨论建议之前,让我们先回顾一下问题。

总体而言,用于检测疾病和伤害的算法在代表性不足的群体(如女性和有色人种)中表现较差。例如,使用算法检测皮肤癌的技术对肤色较深的人群的准确性较低,而一种检测肝病的算法对女性的表现不佳。一项重磅研究揭示了一种广泛使用的临床算法要求黑人患者病情更严重才能获得与白人患者相同的护理建议。类似的偏见也在用于确定资源分配的算法中被发现,例如残疾人能获得多少帮助。这只是众多例子中的一小部分。

这些问题的原因通常在于用于训练人工智能算法的数据。这些数据本身往往不完整或扭曲——历史上,女性和有色人种在医学研究中的代表性不足。在其他情况下,算法失败是因为它们是在用作某种信息代理的数据上进行训练的,但这些数据未能恰当地捕捉到人工智能系统应解决的问题。医院算法在训练时使用了医疗保健费用作为患者护理的代理指标,结果发现医院系统在每个护理级别上对黑人患者的医疗保健支出历来较少,这意味着人工智能未能准确预测黑人患者的需求。

建议解决方案

该研究背后的集体提出了29项建议——18项针对数据集管理者,11项针对数据使用者。

对于数据集管理者,论文建议数据集文档应包括用通俗语言编写的摘要,指出数据集中存在的群体,处理任何缺失数据,识别已知或预期的偏差或错误来源,明确创建数据集的人、资助者以及数据集使用应避免的目的等,以增加透明度和提供背景信息。

对于数据使用者,建议他们应识别并透明报告代表性不足的领域,评估特定群体的性能,承认已知的偏差和局限性及其影响,并在整个AI医疗技术生命周期中管理不确定性和风险,包括每一步的文档记录。

总体主题包括呼吁积极调查和透明化,以及对上下文和复杂性的敏感性。“如果无法在算法阶段避免编码偏见,其识别可以使与AI医疗技术使用相关的利益相关者(开发者、监管者、卫生政策制定者和最终用户)承认并减轻偏见转化为危害的过程。”论文写道。

指南能否转化为行动?

像每一种新兴的人工智能应用一样,潜在的好处、已知的风险和负责任的实施之间需要权衡。在医疗护理方面,利害关系尤为重大。

这篇论文并不是首次尝试解决AI医疗技术中的偏见问题,但它是最全面的之一,出现在一个关键时期。作者写道,这些建议并非旨在成为清单,而是为了促进主动调查。但现实是,只有通过监管才能确保这些教训得到应用。

这就是更多的人工智能新闻。

Sage Lazzaro

sage.lazzaro@consultant.fortune.com

sagelazzaro.com

本文最初发布于Fortune.com


(全文结束)

大健康

猜你喜欢

  • 使用大型语言模型时,提供者必须考虑安全、效率和透明度使用大型语言模型时,提供者必须考虑安全、效率和透明度
  • 研究:新方法增强AI驱动医疗数据的隐私保护研究:新方法增强AI驱动医疗数据的隐私保护
  • 使用计算机视觉AI从急诊科预测住院的短患者视频片段使用计算机视觉AI从急诊科预测住院的短患者视频片段
  • 全球医疗保健领域的人工智能市场到2030年将达到1641.6亿美元,复合年增长率为49.1% | MarketsandMarkets™全球医疗保健领域的人工智能市场到2030年将达到1641.6亿美元,复合年增长率为49.1% | MarketsandMarkets™
  • 全球医疗保健领域的人工智能市场预计到2030年将达到1641.6亿美元,复合年增长率为49.1%全球医疗保健领域的人工智能市场预计到2030年将达到1641.6亿美元,复合年增长率为49.1%
  • 2025年风险投资关注的10个领域2025年风险投资关注的10个领域
  • 面对全球挑战重塑医疗保健面对全球挑战重塑医疗保健
  • Petros Pharmaceuticals 在“医疗保健新时代:AI、数据和消费者赋权”中被提及Petros Pharmaceuticals 在“医疗保健新时代:AI、数据和消费者赋权”中被提及
  • 大型研究揭示AI医疗偏见大型研究揭示AI医疗偏见
  • 医疗保健市场中的人工智能到2030年将达到1641.6亿美元,复合年增长率为49.1%医疗保健市场中的人工智能到2030年将达到1641.6亿美元,复合年增长率为49.1%
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康