人工智能与临床医生在处理复杂医疗案例中的比较AI and clinicians compared in handling complex medical cases

环球医讯 / AI与医疗健康来源:www.news-medical.net美国 - 英语2025-06-05 00:16:00 - 阅读时长4分钟 - 1921字
缅因大学的一项研究比较了人工智能模型和人类临床医生在处理复杂或敏感医疗案例中的表现,发现AI在某些方面表现出色,但在情感交流和一致性方面存在不足。
人工智能临床医生复杂医疗案例健康指标患者满意度医疗系统压力人工情感智能伦理问题医护人员患者
人工智能与临床医生在处理复杂医疗案例中的比较

缅因大学的一项研究比较了人工智能模型和人类临床医生在处理复杂或敏感医疗案例中的表现。该研究于5月发表在《健康组织与管理杂志》上,评估了来自美国和澳大利亚的超过7,000个匿名医疗查询。研究结果概述了技术的前景以及在将AI应用于患者之前需要解决的局限性,并可能为未来AI工具、临床程序和公共政策的发展提供信息。该研究还为在医护人员短缺和临床医生倦怠日益增加的情况下使用AI支持医疗专业人员提供了参考。

研究结果显示,大多数AI生成的回答符合专家的信息标准,尤其是在事实性和程序性查询方面,但在回答“为什么”和“如何”的问题时常常显得力不从心。此外,虽然在单次会话中AI的回答是一致的,但在用户后续测试中提出相同问题时,会出现不一致的情况。这些差异在患者的健康受到威胁时尤其令人担忧。研究结果为定义AI在医疗保健中的作用提供了越来越多的证据。

“这不是要取代医生和护士。而是增强他们的能力。AI可以成为第二双眼睛;它可以帮助临床医生筛选大量数据,识别模式,并实时提供基于证据的建议。”

——本研究的作者、缅因商学院信息系统和安全管理副教授C. Matt Graham

该研究还比较了两国的健康指标,包括患者满意度、成本和治疗效果。在实行全民医疗模式的澳大利亚,患者报告的满意度更高,成本仅为美国的四分之一,而美国的患者等待就诊的时间是澳大利亚的两倍。Graham在研究中指出,卫生系统、监管和文化差异最终将影响AI的接受和使用方式,并且模型应接受训练以考虑这些差异。

人工情感智能

虽然诊断的准确性很重要,但传达方式也同样重要。在研究中,AI的回答经常缺乏人类临床医生通常传达的情感参与和同理心。AI的回答长度惊人地一致,大多数回答在400到475字之间。而人类临床医生的回答则显示出更多的变化,对于简单的问题,他们提供的答案更为简洁。词汇分析显示,AI经常在其回答中使用临床术语,这可能会让一些患者难以理解或感到冷漠。在涉及心理健康或绝症等话题时,AI难以传达有效医患关系中至关重要的同情心。

“医疗专业人员通过视觉、触觉、在场和沟通提供基于人类联系的疗愈体验,这是AI无法复制的。”未参与该研究的缅因大学护理学院副教授Kelley Strout说。“只有在严格的规范、伦理框架和监测错误及意外后果的安全措施下,AI与临床医生判断、同情心和循证实践的结合才能改变医疗保健系统。”

医疗系统的压力

该研究是在美国医疗劳动力普遍且日益短缺的情况下进行的。全国各地的患者面临着漫长的等待时间、高昂的成本和初级保健及专科医生的短缺。这些问题在农村地区尤为严重,有限的医疗资源往往导致诊断延迟和健康状况恶化。

Strout表示,虽然AI可以帮助改善患者的就医途径并缓解诸如倦怠等问题(影响美国超过一半的初级保健医生),但其使用必须谨慎对待。

优先考虑医护人员和患者

AI驱动的工具可以支持全天候虚拟协助,并通过在线患者门户等工具补充医护人员与患者的沟通,这些工具自2020年以来人气飙升。然而,这项技术也引发了对就业替代的担忧,专家警告说,如果没有伦理护栏,快速实施可能会加剧不平等并损害护理质量。

“技术只是解决方案的一部分。”Graham说,“我们需要监管标准、人类监督和包容性数据集。目前,大多数AI工具都是在有限的人群上训练的。如果我们不小心,我们可能会构建出反映甚至放大现有不平等的系统。”

Strout补充说,在医疗保健系统将AI整合到临床实践中时,管理者必须确保这些工具是为患者和医护人员设计的。过去技术整合的经验教训,如有时未能增强护理交付,为AI开发者提供了宝贵的指导。

“我们必须从前人的失误中吸取教训。例如,电子健康记录(EHR)主要是围绕计费模型开发的,而不是围绕患者结果或医护人员的工作流程。”Strout说,“因此,EHR系统经常导致医护人员的挫败感和患者满意度下降。我们不能让这种情况在AI上重演。”

其他因素,如对错误的责任和患者隐私,也是医学伦理学家、政策制定者和AI研究人员关注的重点。解决这些伦理问题的方法可能因采用地区的不同文化和社会环境而异。

随着AI的不断发展,许多专家认为它将提高服务效率和医护人员为患者提供的决策质量。该研究的结果支持了越来越多的共识,即AI有限的伦理和情感适应性意味着人类临床医生仍然是不可或缺的。Graham表示,除了改进AI工具的性能外,未来的研究还应重点关注管理伦理风险和使AI适应多样化的医疗保健环境,以确保技术增强而不是削弱人类护理。

“技术应该增强医学的人性,而不是削弱它。”Graham说,“这意味着设计能够支持医护人员提供护理的系统,而不是完全取代他们。”


(全文结束)

大健康

猜你喜欢

  • 研究发现,英国人常用的减肥饮食方法可能导致抑郁研究发现,英国人常用的减肥饮食方法可能导致抑郁
  • 医疗系统在人工智能中增加和减少角色医疗系统在人工智能中增加和减少角色
  • 奥兰多健康会议探讨“人工智能与孤独”:心理健康未来奥兰多健康会议探讨“人工智能与孤独”:心理健康未来
  • AI驱动的沟通如何解决福利困惑AI驱动的沟通如何解决福利困惑
  • 人工智能加速应对新兴健康风险人工智能加速应对新兴健康风险
  • AI足部扫描仪识别心力衰竭的预警信号,帮助患者避免住院AI足部扫描仪识别心力衰竭的预警信号,帮助患者避免住院
  • NHS患者使用AI足部扫描仪提前两周发现心力衰竭NHS患者使用AI足部扫描仪提前两周发现心力衰竭
  • 爱尔兰儿童健康行为25年来的重大变化爱尔兰儿童健康行为25年来的重大变化
  • AI赋能新心理健康合作:Holmusk与Iris Telehealth携手AI赋能新心理健康合作:Holmusk与Iris Telehealth携手
  • 低热量饮食可能增加抑郁症状风险低热量饮食可能增加抑郁症状风险
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康