当AI在数据处理中变得“有害”:从啤酒、豆子到医学Beer, beans, and medicine: When AI gets ‘pernicious’ with the data

环球医讯 / AI与医疗健康来源:www.medicalindependent.ie爱尔兰 - 英语2025-02-11 07:00:00 - 阅读时长2分钟 - 977字
本文探讨了人工智能(AI)在医疗影像中的应用及其潜在风险,特别是“捷径学习”现象如何导致算法偏见,并强调了在医疗领域使用AI模型时需要严格的监督和评估标准。
AI医疗影像捷径学习算法不公平膝关节X光片医学研究医疗保健严格监督评估标准
当AI在数据处理中变得“有害”:从啤酒、豆子到医学

人工智能(AI)在医疗影像领域的应用前景广阔,有望提高诊断准确性。然而,法律和伦理问题一直是讨论的热点,最近的研究揭示了AI医疗影像中存在的一个潜在问题——“捷径学习”。如果您不熟悉这个术语,您可能还需要了解“算法不公平”。

“捷径学习”是指AI模型通过数据中的虚假相关性来解决任务,而不是依赖于与任务直接相关的特征。“算法不公平”,也称为算法偏见,发生在机器学习模型基于数据中的错误相关性进行预测时。

一项发表于十二月的研究展示了“捷径学习”可能导致的算法不公平现象。该研究由美国达特茅斯健康研究所的研究人员完成,题目为《深度学习算法在医学影像研究中的捷径风险》,发表在《科学报告》上。作者们展示了捷径学习是如何轻易发生的及其潜在风险。

研究人员写道:“我们使用简单的ResNet18卷积神经网络训练模型来完成两项它们本不应能完成的任务:仅通过检查膝关节X光片预测患者是否避免食用油炸豆或饮用啤酒(对于油炸豆的AUC为0.63,对于啤酒的AUC为0.73)。”

该研究分析了超过25,000张膝关节X光片(来自4,789名患者),这些X光片来自国家卫生研究院资助的骨关节炎倡议项目。研究人员创建了两个模型,分别用于预测患者自我报告的对豆类和啤酒的偏好。研究使用了五个临床站点收集的双侧PA固定屈曲X光片。

达特茅斯团队的研究员布兰登·希尔评论道:“这不仅仅是种族或性别线索带来的偏差。我们发现算法甚至可以预测X光片拍摄的年份。这种情况非常有害——当你阻止它学习某个元素时,它会转而学习之前忽略的另一个元素。这种危险可能导致一些非常可疑的结论,研究人员需要意识到这种情况在使用该技术时是多么容易发生。”

他继续说:“当使用模型发现医学中的新模式时,证明责任大大增加。部分问题是我们的偏见。很容易陷入认为模型‘看到’的东西和我们一样。实际上,它并不如此。几乎像是处理一种外星智能。你可能会说模型在‘作弊’,但这赋予了技术拟人化的色彩。它找到了一种方法来解决给定的任务,但不一定是我们理解的那种逻辑或推理。”

总之,AI在医疗保健领域可以带来巨大好处,但前提是必须在严格的监督下进行,并遵循严格评估标准。

我们将引用计算机科学家兼AI研究员Eliezer Yudkowsky的话作为结尾:“AI的最大危险在于人们过早地认为自己已经理解了它。”


(全文结束)

大健康

猜你喜欢

  • 下一代AI项目将在国防和医疗保健领域提供“任务就绪”解决方案下一代AI项目将在国防和医疗保健领域提供“任务就绪”解决方案
  • AI:打击医疗行业不良行为的有效工具AI:打击医疗行业不良行为的有效工具
  • 生成式AI如何变革医疗保健:诊断与治疗生成式AI如何变革医疗保健:诊断与治疗
  • 五位女性研究人员利用AI改善医疗保健五位女性研究人员利用AI改善医疗保健
  • 人工智能在行动:六大医疗系统如何利用这项技术人工智能在行动:六大医疗系统如何利用这项技术
  • 数据碎片化:当今医疗保健的关键挑战?数据碎片化:当今医疗保健的关键挑战?
  • 这位医生表示他可以让医疗保健中的人工智能更安全这位医生表示他可以让医疗保健中的人工智能更安全
  • 变革医疗保健:利用人工智能提升电子病历以改善患者护理和效率变革医疗保健:利用人工智能提升电子病历以改善患者护理和效率
  • TidalSense获得资助用于儿童哮喘诊断设备开发TidalSense获得资助用于儿童哮喘诊断设备开发
  • 沙特阿拉伯虚拟医院引领AI集成,副部长如是说沙特阿拉伯虚拟医院引领AI集成,副部长如是说
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康