克服AI对健康公平性的风险Overcoming AI’s Risk To Health Equity

环球医讯 / AI与医疗健康来源:www.forbes.com美国 - 英语2025-01-09 21:00:00 - 阅读时长4分钟 - 1766字
本文探讨了生成式人工智能(GenAI)在医疗保健行业的应用及其潜在风险,强调了准确训练数据的重要性,并提出通过结合外部数据来提高AI模型的有效性和可靠性,从而更好地应对社会决定因素对健康的影响,确保技术进步不会加剧健康不平等。
健康公平性生成式人工智能GenAI医疗保健社会决定因素SDOH大规模语言模型LLM数据质量透明度可解释AI外部数据非传统数据集批判性眼光逐步实施患者护理健康不平等
克服AI对健康公平性的风险

生成式人工智能(GenAI)正在迅速改变商业运营和日常生活,医疗保健行业也不例外。未来几年,我们可能会看到GenAI在行政任务、护理提供甚至临床工作方面取得显著进展。

最近的一个例子是麻省总医院布里格姆医学人工智能项目的研究人员使用经过训练的大规模语言模型(LLM),发现这些模型在识别医生笔记中可能被忽视的社会决定因素(SDOH)方面非常出色。SDOH涵盖了患者住房状况、交通方式和饮食等信息,对于医疗结果至关重要,因为它可以确定人们需要额外帮助以过上更充实和健康的生活。测试结果显示,研究人员训练的LLM能够识别93.8%需要更多关注SDOH的患者,而官方诊断代码仅在2%的病例中包含了这些信息。

尽管AI在这方面的优势明显,但这些和其他进展仍伴随着其他行业遇到的相同警告。医疗机构可以从GenAI中获得巨大收益,但也需要了解AI使用的潜在问题。

GenAI的不足之处

尽管AI功能强大,但它远非完美,应用于医疗保健的AI也容易出现与其他行业相同的问题。一个众所周知的问题是技术容易产生“幻觉”。幻觉可能导致在使用不完整或不足的数据训练AI模型、训练数据存在偏差或模型自行得出错误甚至荒谬结论的情况下出现问题。不受控制的AI过程可能带来严重风险,特别是在其结论可能产生重大后果的领域,如医疗诊断、金融交易或法律程序。

例如,纽约的一位律师使用OpenAI的ChatGPT收集个人伤害诉讼的支持研究材料,但其中引用的六个案例据法官称是“虚构”的。AI编造了这些案例。

在医疗保健领域,风险更高,因为错误可能会危及生命。例如,美国医学协会发现,一家电子健康记录(EHR)供应商使用的人工智能工具用于提供败血症感染的早期预警,经常错过诊断或发出虚假警报。

准确的训练数据是有效AI的基础

避免这些问题是一个挑战。算法设计和性能的透明度至关重要,尽管“可解释AI”——即AI模型能够用人类可以理解的方式描述其推理——的努力才刚刚开始取得进展。然而,在达到这一点之前,立即的问题是用于训练AI模型的数据质量。

当将AI应用于SDOH和健康公平性时,行业使用的是固有缺陷的数据。麻省总医院布里格姆的研究虽然取得了令人鼓舞的结果,但研究仅基于患者提供的信息,这被认为是“黄金标准”。然而,这种思维方式需要改变。无论有意与否,患者提供的信息并不总是准确或真实的。仅依赖患者提供的信息会导致数据缺陷,进而导致AI模型产生有缺陷的结果和见解。

一个明显的步骤是使用健康系统内的其他数据,如每位患者的临床和理赔数据。虽然这些数据会增加可见性并为AI模型提供更多信息,但仍然存在巨大的盲点。它缺乏关于患者日常生活的信息,如他们面临的社交和经济障碍,这些障碍可能影响他们的健康。而且,它还排除了那些与医疗系统几乎没有或根本没有互动的弱势群体。

对于SDOH,AI模型需要结合外部数据

即使在AI革命的早期阶段,我们也了解到用于训练AI模型的数据质量至关重要。对于大多数医疗保健应用场景,只要数据准确且完整,行业内现有的数据可能就足够了。但对于健康公平性而言,这还不够。SDOH本质上来自医疗环境之外的生活,涉及住房、就业状态、交通工具、健康食品的获取、财务状况等因素。

为了使AI有效解决与健康公平性相关的问题,组织必须从行业外部寻找非传统数据集。幸运的是,整个社会都在进行数据收集,有无数潜在来源,从已公开的数据集到私人来源的数据集。政府关于公共交通或汽车拥有量的数据是了解交通获取情况或其他障碍如何影响医疗保健的一个起点。其他社会经济因素如家庭结构、职业和就业状态的数据也大量存在于公共来源中。当然,还有无数的专有数据源。寻求扩大市场份额的数据提供商可以将其视为与希望增强对SDOH理解的医疗机构合作的机会。

批判性眼光和循序渐进的方法

GenAI有潜力显著改善医疗保健,但组织必须谨慎行事,逐步且深思熟虑地实施AI,以确保其不会加剧健康不平等。AI已被证明是理解患者临床环境之外生活的有力工具,可以改善护理。但如果训练数据不足,AI也会犯错。医疗机构必须确保使用完整、准确的数据集,并始终通过其他手段(如调查或与患者的沟通)确认AI的结果。

在医疗保健中实施AI的过程中会有磕磕绊绊,而减少这些磕绊需要在使用过程中保持批判性的眼光。


(全文结束)

猜你喜欢
  • 斯坦福研究人员开发AI模型以增强癌症预后预测斯坦福研究人员开发AI模型以增强癌症预后预测
  • 医疗保健中的人工智能:用富有同情心且安全的虚拟代理提升患者体验医疗保健中的人工智能:用富有同情心且安全的虚拟代理提升患者体验
  • AMD投资Absci加强在药物发现领域的人工智能芯片存在AMD投资Absci加强在药物发现领域的人工智能芯片存在
  • Transcarent将以6.21亿美元收购AccoladeTranscarent将以6.21亿美元收购Accolade
  • 通过基因组学和人工智能提高心脏病预测准确性通过基因组学和人工智能提高心脏病预测准确性
  • 2024年研究报告预测:全球医疗认知计算市场预计到2035年将达到1502.5亿美元2024年研究报告预测:全球医疗认知计算市场预计到2035年将达到1502.5亿美元
  • 全球医疗从业者对2024年人工智能在医疗保健中应用的期望全球医疗从业者对2024年人工智能在医疗保健中应用的期望
  • Cedar高管谈2025年人工智能在医疗呼叫中心未被发掘的潜力Cedar高管谈2025年人工智能在医疗呼叫中心未被发掘的潜力
  • 新加坡初创公司推出医生辅助AI,将在澳大利亚和东南亚推广新加坡初创公司推出医生辅助AI,将在澳大利亚和东南亚推广
  • 独特的AI通过结合医学图像和文本预测癌症预后和治疗反应独特的AI通过结合医学图像和文本预测癌症预后和治疗反应
热点资讯
全站热点
全站热文