AI在医疗保健领域的潜力与风险AI Poses Much Potential and Peril for Healthcare

环球医讯 / AI与医疗健康来源:ldi.upenn.edu美国 - 英语2024-10-08 05:32:00 - 阅读时长6分钟 - 2514字
专家将在10月10日的会议上讨论AI在医疗保健领域的最棘手问题
AI医疗保健宾夕法尼亚大学患者安全数据准确性偏见公平挑战数据基础设施沃顿医疗分析实验室
AI在医疗保健领域的潜力与风险

10月10日,宾夕法尼亚大学(Penn)的卫生服务与政策研究所(LDI)和沃顿医疗分析实验室(Wharton Healthcare Analytics Lab)的专家们将讨论关于AI在医疗保健领域的最棘手问题。

相关文章

  • 与新的医疗保健AI革命正面交锋:新沃顿医疗分析实验室联合主任谈挑战、潜力和陷阱
  • 预测临床决策支持中的人工智能未来:宾夕法尼亚大学LDI虚拟研讨会回顾了挑战和未解决的问题
  • 医疗算法可以改善或加剧种族和族裔差异:用户需要了解现有差异以及为何种族可能不精确
  • 黑人美国人使用不同的词语描述抑郁症:LDI专家展示了抑郁筛查和聊天机器人工具的不足
  • AI干预减少了癌症患者的临终支出:机器学习工具结合行为提示,在减少治疗的同时维持支持性疗法

大型语言模型(LLMs)是通过处理大量文本数据来理解和生成人类语言的人工智能系统。2022年底ChatGPT的推出使这种类型的LLM进入了许多美国人的生活。与此同时,尽管没有那么引人注目,各种大型语言模型也开始在一些医疗环境中普及,例如通过编程聊天机器人来回答健康相关问题。

科技公司和学术研究人员,包括宾夕法尼亚大学,都注意到了这一点。“人工智能在医疗领域的应用一直不太成功,但随着大型语言模型的出现,突然间改善医疗服务的潜力大大增加,”LDI高级研究员Hamsa Bastani说,她是沃顿商学院运营、信息和决策学副教授。大约一年前,宾夕法尼亚大学开设了沃顿医疗分析实验室(WHAL),Bastani和LDI高级研究员Marissa King担任联合主任。该实验室附有一名博士后研究员、10名附属教员和几名研究生,还有一位执行董事。

实验室的任务是帮助将复杂的数据分析引入医疗保健领域。“我们希望数据分析能够产生影响,并且这种影响是变革性的,”King说,她是沃顿商学院医疗管理学教授。但存在巨大的障碍,例如利益相关者在如何实施模型方面意见不一。“我认为,为了利用大型语言模型的潜力,从监管机构到从业者再到数据科学家,所有人都需要共同努力克服这些挑战,”King说。她补充道,一个很好的起点是10月10日由LDI和WHAL共同主办的“(重)写医疗保健的未来:生成式AI”会议。King将这次首次研讨会视为一个“中立空间”,利益相关者可以在此分享担忧和可能的解决方案。虽然围绕LLM在医疗保健领域的可能性充满兴奋,但实验室采取谨慎和严谨的态度。在会议上,Bastani将主持一个名为“制定LLM手册:医疗系统的关键问题”的环节。她打算提出涉及患者安全和数据准确性、偏见和公平挑战以及数据基础设施等问题,这些问题将指导WHAL的工作和与会者。

患者安全和数据准确性

大型语言模型最令人兴奋的应用之一是使用它们将信息输入患者的电子健康记录(EHRs)并生成临床访问摘要。“医生讨厌做记录。他们选择这个职业是因为想面对面地与患者交流,了解他们的感受。医生不想在访问期间写笔记。我还没有遇到一个不对LLM接管这一任务感到非常兴奋的医生,”Bastani说。然而,LLM的一个问题是它们会产生“幻觉”——错误或缺失的信息。例如,急诊科的出院摘要可能会错误地标记糖尿病患者有高血压,因为这两种疾病通常相伴而生。“这些模型是外推机,所以它们经常正确外推,但也可能错误外推,”Bastani解释道。这种错误可能导致后续的治疗失误。

在非洲之角的索马里兰卫生与发展部,Bastani和她的研究生在一个刚开始数字化的健康数据系统中工作。“我们正在测试一种LLM干预措施,该措施在减轻医生工作量的同时仍能保持临床笔记的高准确性。我们将随机审计这些笔记的一部分,并由实际的临床专业人士进行审查,以确保其准确性。如果我们测试几千条笔记,其中只有一两条不准确,我们就认为这是成功的。我们希望确保我们的表现不会比典型的人类错误率差很多,”Bastani说。在美国,这种干预措施可能难以实现。“但如果医生被激励仔细审核这些摘要,并将其视为草稿而不是最终产品,这将有很大帮助。一些科技公司已经显示出相当有前景的结果,但它们尚未接受严格的学术评估,”Bastani说。此外,LLM可以通过重新训练它们以适应特定任务所需的新数据集来进行“微调”。

偏见和公平挑战

目前认为,医疗数据中普遍存在偏见,尤其是电子健康记录(EHRs)。“与算法和公平相关的重大问题是,我们往往在医疗系统中没有高质量的数据来服务未得到充分服务的人群或少数群体,导致他们的健康结果更差。我认为,当处理算法偏见时,最好的做法是尽可能收集更好的数据,”Bastani说。她补充道,“黄金标准”是医疗系统能够接触那些未能前来就诊的患者,并提供免费交通等服务。“如果做不到这一点,机器学习中有各种工具可以帮助缓解偏见,但它们的效果永远不会像收集更多和更好的数据那样有效,”Bastani说。偏见也可能在模型完成后出现。LDI高级研究员Kevin Volpp是宾夕法尼亚大学健康激励与行为经济学中心的负责人,他与WHAL合作开展了一项心血管风险降低计划,探索使用AI更高效地将资源分配给预测风险最高的群体。“一个重要问题是,AI是否会系统性地将资源分配给某些群体而不是其他群体。我们需要确保在使用AI时,通过提高项目的有效性来减少健康不公平,而不加剧健康不公平,”他说。

数据基础设施

大型语言模型提供了前所未有的机会,可以从以前未被系统化挖掘的来源中提取数据。利用LLM理解文本和情感的能力,King正在分析与劳动力福祉相关的问题。“我们试图利用电子健康记录中的数据来了解哪些地方的临床医生,特别是护士,面临较高的倦怠或情绪过载风险。临床笔记中蕴含着极其丰富的数据,”她说。然而,“获得和构建项目数据集是一项艰巨的任务。可以说,与AI和医疗保健相关的数据挑战是进步的最大障碍,”King说。这些和其他问题将在10月10日的联合会议上进行讨论和头脑风暴。在解锁这些技术的全部潜力以大规模改善医疗保健交付之前,建立适当的符合HIPAA标准的环境,支持在患者可识别的笔记或音频对话数据上训练和微调LLM,是医疗系统必须克服的关键挑战。


(全文结束)

大健康

猜你喜欢

  • 专家强调人工智能在提高间质性肺病诊断准确性方面的潜力及局限性专家强调人工智能在提高间质性肺病诊断准确性方面的潜力及局限性
  • 美敦力为何希望每个业务部门都制定AI计划美敦力为何希望每个业务部门都制定AI计划
  • 医疗保健领域的人工智能医疗保健领域的人工智能
  • 艾诺斯凭借 AI 鼻和 VELDONA 技术推动医疗和工业创新艾诺斯凭借 AI 鼻和 VELDONA 技术推动医疗和工业创新
  • ScribeRyte AI 医疗记录平台推出西班牙语翻译功能ScribeRyte AI 医疗记录平台推出西班牙语翻译功能
  • AI助力家庭医生应对繁重文书工作,为何采纳率低?AI助力家庭医生应对繁重文书工作,为何采纳率低?
  • 克利夫兰诊所AI特别工作组:ASCs的3个要点克利夫兰诊所AI特别工作组:ASCs的3个要点
  • AI通过预测伤害、痴呆甚至死亡来改变老年护理AI通过预测伤害、痴呆甚至死亡来改变老年护理
  • 史密斯因氧气流量中断风险召回呼吸机史密斯因氧气流量中断风险召回呼吸机
  • Ainos 凭借 AI 鼻和 VELDONA 技术推动医疗保健和工业创新Ainos 凭借 AI 鼻和 VELDONA 技术推动医疗保健和工业创新
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康