AI与临床医生的诊断对决:新研究揭示AI vs. Clinicians: Diagnoses Showdown in New Study

环球医讯 / AI与医疗健康来源:www.miragenews.com美国 - 英语2025-06-04 02:00:00 - 阅读时长5分钟 - 2066字
缅因大学的一项新研究比较了人工智能模型和人类临床医生在处理复杂或敏感医疗案例时的表现,结果显示AI在某些方面有潜力,但在情感交流和一致性方面存在局限。
AI临床医生医疗诊断患者健康医疗系统压力医疗服务患者满意度医疗伦理技术监管人类护理
AI与临床医生的诊断对决:新研究揭示

缅因大学的一项研究比较了人工智能模型和人类临床医生在处理复杂或敏感医疗案例时的表现。该研究于2024年5月发表在《卫生组织与管理杂志》上,评估了来自美国和澳大利亚的7,000多个匿名医疗查询。研究结果概述了技术的优势以及在将AI应用于患者之前需要解决的局限性。这些发现可能会影响未来AI工具、临床程序和公共政策的发展。该研究还为在医护人员短缺和临床医生职业倦怠日益增加的情况下使用AI支持医疗专业人员提供了参考。

研究结果显示,大多数AI生成的回答符合专家的信息标准,尤其是在事实性和程序性查询方面,但经常难以回答“为什么”和“如何”的问题。此外,虽然在单次会话中回答是一致的,但在用户后续测试中提出相同问题时出现了不一致的情况。这些差异在涉及患者健康时尤其令人担忧。这些发现增加了越来越多的证据,定义了AI在医疗保健中的角色。

“这不是要取代医生和护士,”该研究的作者、缅因商学院信息系统和安全管理副教授C. Matt Graham说,“而是增强他们的能力。AI可以作为第二双眼睛;它可以帮助临床医生筛选大量数据,识别模式,并实时提供基于证据的建议。”

该研究还比较了两国的健康指标,包括患者满意度、成本和治疗效果。在实行全民医疗模式的澳大利亚,患者报告的满意度更高,成本仅为美国的四分之一,而美国的患者等待看医生的时间是澳大利亚的两倍。Graham在研究中指出,这些卫生系统、监管和文化差异最终将影响AI的接受和使用方式,模型应经过训练以适应这些变化。

人工情感智能

虽然诊断的准确性很重要,但传达方式也同样重要。研究表明,AI的回答经常缺乏人类临床医生所传达的情感投入和同情细微之处。

AI回答的长度非常一致,大多数在400到475个单词之间。相比之下,人类临床医生的回答变化更大,对简单问题的回答更为简洁。

词汇分析显示,AI经常在其回答中使用临床术语,这可能难以理解或对某些患者来说显得不够体贴。在涉及心理健康或绝症等话题时,AI难以传达有效医患关系中至关重要的同情心。

“医疗专业人员提供的治疗基于人与人之间的联系,通过视觉、触觉、存在感和沟通——这些体验是AI无法复制的,”缅因大学护理学院副教授Kelley Strout表示(她未参与该研究)。“AI与临床医生判断力、同情心和循证实践应用之间的协同作用有可能改变医疗系统,但前提是必须伴随严格的规范、伦理框架和监控错误及意外后果的保障措施。”

医疗系统的压力

这项研究是在美国医疗劳动力普遍且不断增长的短缺背景下进行的。全国各地的患者面临漫长的等待时间、高昂的成本和初级保健及专科医生的短缺。这些障碍在农村地区尤为严重,有限的医疗服务导致诊断延迟和健康状况恶化。

根据2024年发布的卫生资源和服务管理局报告,预计到2037年,非都市地区将面临42%的初级保健医生短缺。尽管越来越多的护士从业者和医师助理正在填补这一缺口,但对护理的需求增长更快。2022年至2026年间,美国65岁及以上人口预计将增加54%,这对医疗服务需求产生了重大影响。

Strout表示,虽然AI可以帮助改善患者的访问并缓解诸如职业倦怠等问题(影响超过一半的美国初级保健医生),但其使用必须谨慎对待。

优先考虑提供者和患者

AI驱动的工具可以支持全天候虚拟辅助,并通过在线患者门户等工具补充医患沟通,自2020年以来,这些工具的受欢迎程度急剧上升。然而,该技术也引发了对工作流失的担忧,专家警告说,如果没有伦理护栏,快速实施可能会加剧不平等并损害护理质量。

“技术只是解决方案的一部分,”Graham说。“我们需要监管标准、人类监督和包容性数据集。目前,大多数AI工具都是在有限的人群上训练的。如果我们不小心,我们可能会建立反映甚至放大现有不平等的系统。”

Strout补充说,随着医疗系统将AI整合到临床实践中,管理者必须确保这些工具的设计考虑到患者和提供者的利益。过去技术整合的经验教训,有时未能增强护理交付,为AI开发者提供了宝贵的指导。

“我们必须从过去的失误中吸取教训。例如,电子健康记录(EHR)主要是围绕计费模型而不是患者结果或提供者工作流程开发的,”Strout说。“因此,EHR系统常常导致提供者的挫败感和患者满意度下降。我们不能在AI上重蹈覆辙。”

其他因素,如错误责任和患者隐私,也是医学伦理学家、政策制定者和AI研究人员关注的重点。这些问题的解决方案可能因采用地点的不同而有所不同,以适应不同的文化和监管环境。

随着AI的不断发展,许多专家认为它将增强提供者向患者提供的服务效率和决策能力。研究结果支持了一个日益增长的共识,即AI有限的伦理和情感适应性意味着人类临床医生仍然是不可或缺的。Graham表示,除了提高AI工具的性能外,未来的研究还应侧重于管理伦理风险和使AI适应多样化的医疗环境,以确保技术增强而不是削弱人类护理。

“技术应该增强医学的人性,而不是削弱它,”Graham说。“这意味着设计支持临床医生提供护理的系统,而不是完全取代他们。”


(全文结束)

大健康

猜你喜欢

  • 多重传染病检测是减少传播的关键,研究显示多重传染病检测是减少传播的关键,研究显示
  • 突破性AI笔通过分析笔迹检测帕金森病突破性AI笔通过分析笔迹检测帕金森病
  • 科学家接近创造通用供血科学家接近创造通用供血
  • 学校辅导员担心学生对社交媒体的误导性使用学校辅导员担心学生对社交媒体的误导性使用
  • 比尔·盖茨承诺在未来20年内将大部分财富用于改善非洲的健康和教育服务比尔·盖茨承诺在未来20年内将大部分财富用于改善非洲的健康和教育服务
  • 大脑与字节:研究比较AI和临床医生的诊断大脑与字节:研究比较AI和临床医生的诊断
  • 从蛇咬到突破:人工智能和勇敢的家庭如何在库马西教学医院挽救了一名儿童从蛇咬到突破:人工智能和勇敢的家庭如何在库马西教学医院挽救了一名儿童
  • 谷歌I/O 2025的三大医疗保健要点谷歌I/O 2025的三大医疗保健要点
  • AI通过生活方式和健康数据准确预测抑郁症风险AI通过生活方式和健康数据准确预测抑郁症风险
  • 研究表明希望对心脏健康仍然重要研究表明希望对心脏健康仍然重要
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康