发布建议以应对医疗AI技术中的偏见Recommendations published to tackle bias in medical AI tech

环球医讯 / AI与医疗健康来源:www.digitalhealth.net英国 - 英语2024-12-20 19:00:00 - 阅读时长2分钟 - 943字
国际上达成一致的建议已发布,旨在减少医疗AI技术中潜在的偏见风险,确保用于训练和测试医疗AI系统的数据集代表技术将服务的人群多样性。
医疗AI技术偏见风险STANDINGTogether倡议健康公平多样化数据集少数群体全球合作公众参与
发布建议以应对医疗AI技术中的偏见

一套国际上达成一致的建议已发布,旨在减少医疗AI技术中潜在的偏见风险。这些建议由STANDING Together倡议于2024年12月18日在《柳叶刀数字健康》和《NEJM-AI》上发布,旨在确保用于训练和测试医疗AI系统的数据集代表技术将服务的人群多样性。

STANDING Together倡议由伯明翰大学医院NHS基金会信托和伯明翰大学的研究人员领导,研究项目涉及来自58个国家的350多名专家。伯明翰大学AI和数字健康技术副教授、该研究的首席研究员肖留博士表示:“数据就像一面镜子,反映了现实,当被扭曲时,数据会放大社会偏见。但试图通过修正数据来解决问题就像擦镜子以去除衬衫上的污渍。要实现健康公平的持久变化,我们必须关注源头,而不仅仅是表面现象。”

尽管医疗AI技术可能改善患者的诊断和治疗,但研究表明,医疗AI可能存在偏见,这意味着某些个体和社区可能会被遗漏或受到伤害。少数群体尤其可能在数据集中代表性不足,因此可能不成比例地受到AI偏见的影响。

这些建议包括:

  • 鼓励医疗AI开发使用适当的医疗数据集,这些数据集应充分代表社会中的每个人,包括少数群体和服务不足的群体;
  • 帮助发布医疗数据集的任何人识别数据中的任何偏见或限制;
  • 使开发医疗AI技术的人能够评估数据集是否适合他们的目的;以及
  • 定义如何测试AI技术,以确定它们是否存在偏见,从而在某些人群中表现不佳。

这项为期两年的研究与来自全球30多个机构的合作者共同进行,包括大学、监管机构、患者团体和慈善机构,以及大小健康技术公司。研究得到了健康基金会和NHS AI实验室的资助,并得到国家卫生和护理研究所的支持。

世界卫生组织首席科学家杰里米·法拉尔爵士表示:“确保我们拥有多样化、可访问且具有代表性的数据集,以支持负责任地开发和测试AI,是全球优先事项。STANDING Together建议是确保健康AI公平性的重要一步。”

研究人员希望这些建议能对监管机构、健康和护理政策组织、资助机构、伦理审查委员会、大学和政府部门有所帮助。

除了这些建议外,一篇发表在2024年12月13日《自然医学》上的评论文章由STANDING Together的患者代表撰写,强调了公众参与塑造医疗AI研究的重要性。


(全文结束)

大健康

猜你喜欢

  • 人工智能和可穿戴设备如何改变医疗保健人工智能和可穿戴设备如何改变医疗保健
  • MyOr宣布智能手机儿童贫血筛查临床研究取得积极成果MyOr宣布智能手机儿童贫血筛查临床研究取得积极成果
  • PBR生命科学筹集100万美元种子前资金,扩大非洲人工智能医疗数据平台PBR生命科学筹集100万美元种子前资金,扩大非洲人工智能医疗数据平台
  • Oura 获得 2 亿美元投资,用于开发新的人工智能可穿戴设备Oura 获得 2 亿美元投资,用于开发新的人工智能可穿戴设备
  • 厌倦了工作时感到疲倦?这里是如何利用AI来帮助你的厌倦了工作时感到疲倦?这里是如何利用AI来帮助你的
  • 爱尔兰生物技术公司Nuritas获得4200万美元推进成分发现爱尔兰生物技术公司Nuritas获得4200万美元推进成分发现
  • 惊人的AI模型预测2050年睡眠不足者的样子惊人的AI模型预测2050年睡眠不足者的样子
  • 医疗算法中的偏见是AI长期存在的问题。新指南能否激发行动?医疗算法中的偏见是AI长期存在的问题。新指南能否激发行动?
  • 2025年的医疗技术将如何发展?2025年的医疗技术将如何发展?
  • 生成式AI、网络安全成为2025年医疗保健提供者组织面临的首要风险生成式AI、网络安全成为2025年医疗保健提供者组织面临的首要风险
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康