医疗专业人员对医疗AI的担忧、心理障碍及成功实施策略:范围综述Journal of Medical Internet Research - Health Care Professionals’ Concerns About Medical AI and Psychological Barriers and Strategies for Successful Implementation: Scoping Review

环球医讯 / AI与医疗健康来源:www.jmir.org匈牙利 - 英语2026-01-23 18:02:59 - 阅读时长37分钟 - 18402字
本范围综述深入分析了医疗专业人员对人工智能技术在医疗领域应用的担忧与心理障碍,通过对32项研究的系统分析,确定了从怀疑到恐惧的五级负面态度谱系,揭示了内在与外在两大类15种态度来源,并提出通过加强教育、明确法规及界定角色等策略可有效缓解阻力;研究发现,41%的研究中恐惧是最常见的负面态度,内在因素如职业身份威胁和工作能力担忧影响更为广泛,而教育被认为是解决这些挑战的关键途径,这为促进AI在医疗领域的成功整合提供了重要参考,有助于在维护伦理标准的同时提升医疗服务质量。
医疗AI医疗专业人员健康心理障碍担忧成功实施策略技术压力怀疑焦虑恐惧伦理问题教育法规专业身份患者护理替代恐惧
医疗专业人员对医疗AI的担忧、心理障碍及成功实施策略:范围综述

引言

背景

近年来,医疗保健领域经历了一场被称为数字健康的"文化变革",改变了医生与患者之间的动态关系。随着患者赋权的兴起,个人在影响其健康或疾病管理的问题上寻求更多参与共同决策的机会。同时,医疗专业人员(HCPs)已从传统的专制权威体系转变为承担导师、教练和指导者的新角色,现在他们帮助患者应对复杂的医疗系统[1]。

过去十年医疗保健的快速变化,加上技术突破和人工智能(AI)的出现,为医疗专业人员提供了新的机遇,也带来了前所未有的挑战。然而,成功将AI整合到医疗保健中需要解决医疗专业人员面临的现有挑战,特别是与他们的工作量和福祉相关的挑战[2]。

尽管医疗专业人员的健康和心理健康状况会提高护理质量、生产力和患者满意度,但其现状已经描绘出令人不安的画面[3]。由于医生短缺和医疗专业人员现有的负担,采用这些创新所需的努力、时间和技能尤为重要[4-6]。

似乎AI通过在诊断、决策、数据分析尤其是行政任务方面提供支持,有可能减轻医疗专业人员的日常工作负担[7]。此外,AI的实施还提供了其他好处,如改善咨询、个性化健康指导、全面的病历分析、精准医疗、定制治疗计划和创新药物发现[8]。将AI实施到循证医学中需要明确的标准和法律,以确保这些先进技术的安全使用。如果没有这些措施,医学界可能会将AI视为潜在威胁而非机遇[9]。鉴于数字转型的本质是文化的,而行医高度依赖技术的使用,医疗专业人员仔细考虑如何拥抱AI的进步至关重要[10]。尽管已有许多研究考察了医疗专业人员对这一突破性技术的态度和意见,但文献在深入探究这一主题方面仍显不足[11,12]。

医疗专业人员对AI使用日益增加的反应在塑造其发展及其对医疗保健领域的贡献方面起着至关重要的作用[13]。最近的研究表明,医疗专业人员对AI的使用既表现出兴趣也存在担忧。

担忧包括对工作被取代、专业身份侵蚀和专业知识丧失的恐惧[14,15]。医疗专业人员担心对AI失去控制,导致技能退化和对技术的过度依赖[16,17]。他们还担忧AI可能对医患关系产生潜在的负面影响以及对医疗保健未来的不确定性[16]。

伦理问题,如AI算法中的偏见和自动化偏见,是重大担忧[18]。技术压力(technostress)和警报疲劳(alert fatigue)加剧了焦虑。在医疗AI及其对医疗专业人员影响的领域中,技术压力是指医疗专业人员由于在其实践中引入、实施或持续使用先进AI技术而经历的生理压力[19]。

尽管存在上述问题,医疗专业人员对医疗AI的总体态度仍然总体上是积极的,尽管不断出现担忧。他们表现出好奇心和参与该领域培训的开放性,因为他们预见到AI将成为未来的发展轨迹[20-22]。

目标

在这篇范围综述中,我们旨在深入探究医疗专业人员对医疗AI担忧的原因和解释。我们对医疗专业人员关于AI采用的负面态度进行了深入分析,目的是了解究竟是什么阻碍了AI在专业实践中的整合。

方法

我们进行了初步文献搜索,以评估对医疗AI出现的负面态度。由于态度背后存在心理因素[8],我们尝试寻找专注于态度量表上精确定义类型态度的研究。随后,我们选择了在学术文献中产生最多相关结果的5种态度。

我们采用系统方法对文献进行了彻底探索,以确定量表中包含的态度。具体来说,我们使用同义词词典搜索了"fear"(恐惧)的所有同义词和相关术语。从这些术语中,我们检查了哪些术语在学术文献中产生了大量相关结果。基于此分析,我们选择了5个关键术语——恐惧(fear)、抵制(resistance)、怀疑(skepticism)、不情愿(reluctance)和焦虑(anxiety)——来代表对医疗AI的负面态度范围。这些术语不仅捕捉到了担忧的总体情绪,还提供了细致的框架来检查医疗专业人员对将AI整合到临床实践中的担忧背后的原因。

因此,我们使用态度量表来描述医疗专业人员的负面态度,从轻微到强烈的厌恶程度不等。最终量表如下:怀疑、不情愿、焦虑、抵制和恐惧。

怀疑代表对医疗AI的一种温和质疑立场,通常以怀疑和对证据的要求为特征,没有强烈的情感偏见。不情愿在怀疑的基础上建立,引入了犹豫和不情愿的态度,但仍然缺乏显著的情感参与。随着连续体发展到焦虑,我们注意到情感反应的开始,对潜在风险和不确定性的担忧开始更加突出地显现。抵制表示对医疗AI更积极和 deliberate 的反对,源于对专业自主性或患者安全的感知威胁。这一阶段反映了认知和情感参与的大幅增加。最终,恐惧代表了最极端的厌恶形式,其特征是强烈的情感反应和深切的危险感,通常导致强烈的反对或回避活动。

这5种态度形成了对医疗AI厌恶的谱系,其中每种态度在特定条件下都可能影响或演变为另一种。怀疑作为一种温和的质疑立场,通常代表负面态度的起点。如果通过证据或保证没有解决怀疑,它可能会发展为不情愿,其特征是犹豫和不愿与AI互动。

随着不确定性增加,焦虑可能出现,由对风险和未知的担忧驱动。这一阶段标志着显著转变,因为情感反应变得更加突出。当焦虑加剧为主动反对时,抵制通常会出现,往往根源于对自主性或专业角色的感知威胁。最后,恐惧作为最强的负面态度,代表了未解决担忧的累积,其中情感反应占主导地位,可能会阻碍建设性参与。

这些态度是相互关联的,存在可能加剧担忧的反馈循环。例如,长期得不到解决的怀疑可能会加深焦虑,而抵制可能会通过确认偏见强化恐惧。了解这些互动可以实现量身定制的干预措施,例如早期用证据解决怀疑,或提供心理支持以减少焦虑和恐惧。

这种层次结构对应于公认的心理学理论,这些理论提出负面态度和感受的强度会逐步增加。Festiger[23]提出的认知失调理论认为,当持有相互冲突的认知时,个体会经历心理不适。随着冲突加剧,这种不适可能会升级。在我们的量表中,怀疑代表了轻微的认知失调,医疗专业人员质疑医疗AI的有效性或安全性。当我们走向不情愿和焦虑时,失调增加,反映了更大的内部冲突和情感参与。

Rogers[24]的保护动机理论解释了人们如何基于感知的严重性和脆弱性以及他们的应对效能来应对威胁。怀疑和不情愿可以被视为早期反应,其中感知的严重性和脆弱性较低。随着这些感知增强,它们会产生焦虑和抵制,当感知到的威胁变得压倒性且应对机制被认为不足时,最终导致恐惧。

这种方法的目的是提供对采用AI的障碍以及可能解决这些障碍的方法的见解。它使我们能够创建响应医疗专业人员关切和需求的策略,促进更高效和符合伦理的AI整合到医疗保健程序中。虽然我们工作的目的不是创建经过验证的方法或标准化量表,但我们开发了态度量表,为理解医疗专业人员对医疗AI的负面态度提供了一个综合框架。

然后,我们使用PRISMA-ScR(系统评价和荟萃分析优先报告项目范围综述扩展)指南进行范围综述。搜索查询为((artificial intelligence [Title] OR AI[Title])) AND (fear [Title/Abstract] OR resistance [Title/Abstract] OR skepticism [Title/Abstract] OR reluctance [Title/Abstract] OR anxiety.

文章的纳入标准如下:(1)文章必须关注AI在医学或医疗保健中的应用;(2)它们必须是原始研究或综述。根据以下标准排除文章:(1)如果搜索词在边缘或不相关上下文中被提及,或与医学和医疗保健无关;(2)如果研究并非专门关注医疗AI,而是关注AI总体,即使它们简要讨论了AI的"医疗用途";(3)排除的研究不是原始研究文章或综述,而是社论、评论、书评或新闻;(4)如果研究来自未经同行评审的期刊,因为这些期刊可能不符合更知名期刊的高标准;(5)没有英文摘要的研究被排除。表1显示了纳入和排除标准。

表1. 纳入和排除标准。纳入标准

  • 文章类型:原始研究文章或综述
  • 语言:有英文摘要的文章
  • 重点:专门关注医疗保健中医疗人工智能的研究
  • 出版类型:经过同行评审的期刊文章

排除标准

  • 文章类型:社论、评论、书评或新闻
  • 语言:没有英文摘要的文章
  • 重点:人工智能仅在不相关或边缘上下文中被提及的研究
  • 出版类型:未经同行评审的文章

总共从PubMed发现了217条记录,其中1条(0.1%)因重复在筛选前被排除。我们审查了216条记录,仔细评估后,我们确定其中166条(76.9%)不符合我们的标准,因此被排除。随后,请求获取50条(23.1%)记录。在50条记录中,总共18条(36%)从分析中被消除。在这18条记录中,12条(67%)因文章类型不符合指定标准而被排除,而剩余的6条(33%)研究因重点不在AI的医疗使用上而被排除。

为确保系统和无偏见的选择,2名独立评审员进行了筛选和资格评估。任何差异都通过讨论解决,在意见分歧的情况下,会咨询第三位评审员。这种多评审员方法最大限度地降低了选择偏差的风险,并确保仅包括符合预定标准的研究纳入最终分析。在仔细考虑随后概述的具体纳入和排除标准后,最终选择了32项研究进行综述。

结果

概述

我们从每项纳入的研究中提取了以下数据:标题、作者、期刊、出版年份、方法和研究设计、检查的态度类型、提到的担忧以及URL。数据输入到Microsoft Excel电子表格中进行分析。电子表格在附录1中提供。表2是该电子表格的简短版本;为提高可读性,它显示了所有选定研究的以下数据:标题、作者、期刊、出版年份和检查的态度类型。

PRISMA-ScR流程图如图1所示。我们确定了3个主题,并将每项选定研究分配给其中一个主题。PRISMA-ScR检查表在附录2中。

第一个主题是国家调查。国家调查(13/32,40%)是在全国范围内进行的全面研究,旨在评估医疗专业人员对医疗领域整合AI的主导情绪、担忧和意见。该类别的研究涉及广泛的调查,旨在捕捉来自特定国家或地区(如约旦、沙特阿拉伯、韩国、瑞士或英国)不同专业和地区医疗专业人员的代表性样本。这些调查经常使用结构化问卷和标准化方法来衡量和分析医疗专业人员对采用医疗AI技术的态度、担忧和感知。

第二个主题是技术压力。归类为技术压力的研究(9/32,9%)主要关注采用AI的心理维度,检查医疗专业人员在遇到AI驱动设备时面临的情感反应、焦虑和挑战。该领域的研究使用定性方法,如访谈或调查,来捕捉与技术压力相关的复杂经验和感知。

第三个主题是高层次视角。高层次视角类别(10/32,31%)包括采用广泛和全面的方法探索整合AI技术到医疗保健中的整体主题、趋势和后果的研究。该领域的发现包括系统综述、荟萃分析和概念分析,旨在整合和评估当前关于医疗AI的研究,同时纳入新发现。

表2. 本综述中包含的研究摘要。该表提供了附录1中提供的详细数据的简明版本。它按标题、第一作者、期刊、出版年份和检查的态度类型列出了选定的研究。此摘要便于快速了解关键研究及其在综述范围内的主要关注点。

标题 | 研究 | 期刊 | 研究设计

--- |---|---|---

应用人工智能与信任——自动驾驶汽车和医疗辅助设备案例 | Hengstler等[25],2016 | 技术预测与社会变革 | 案例研究

AI伦理意识、态度、焦虑和自我效能对护理学生行为意图的影响 | Kwak等[26],2022 | BMC护理 | 定性研究

人们对使用医疗人工智能的不情愿多样性:通过潜在剖面分析识别子群 | Wang等[27],2022 | 人工智能前沿 | 定性研究

人工智能是放射科医生的新朋友吗?综述文章 | Gampala等[14],2020 | Cureus | 综述

现代医学中的人工智能——当前必要性和在转变医疗未来中的作用 | Bhattad和Jain[15],2020 | Cureus | 综述

人工智能在医学中的应用、当前应用和未来角色,特别强调其在病理学中的潜力和承诺:现状和未来影响、障碍包括成本和病理学家的接受度、实际和哲学考虑。全面综述 | Ahmad等[18],2021 | 诊断病理学 | 综述

人工智能推动数字医学 | Fogel和Kvedar[28],2018 | Nature Partner Journals Digital Medicine | 综述

对医疗人工智能的抵制 | Longoni等[29],2019 | 消费者研究杂志 | 综述

人工智能和机器学习在医疗保健中的承诺和注意事项 | Bhardwaj[30],2022 | 医疗保健领导力杂志 | 综述

探索约旦医疗专业学生对人工智能的知识、态度和实践 | Al-Qerem等[31],2023 | BMC医疗信息学和决策制定 | 定性研究

人工智能对美国医学生选择放射学的影响 | Reeder和Lee[32],2022 | 临床成像 | 定性研究

人工智能对加拿大医学生放射学专业偏好的影响:全国调查研究 | Gong等[33],2019 | 学术放射学 | 定性研究

护理学生使用基于AI的医疗保健技术的意图:使用统一接受和使用技术理论的路径分析 | Kwak等[34],2022 | 护士教育今天 | 定性研究

牙科中人工智能的负责任使用:牙医和最后一年本科生观点的调查 | Roganović等[35],2023 | 健康保健(巴塞尔) | 定性研究

俄罗斯医生对医学和医疗保健领域使用人工智能技术的应用意见研究 | Orlova等[36],2023 | BMC健康服务研究 | 定性研究

人工智能在医学成像实践中的整合:非洲放射技师的观点 | Botwe等[37],2021 | 放射摄影 | 定性研究

沙特阿拉伯放射技师对诊断成像中人工智能出现的看法 | Aldhafeeri[38],2022 | Insights Imaging | 定性研究

加拿大放射肿瘤学家、放射物理学家、放射治疗师和放射学员对放射肿瘤学中人工智能影响的看法——全国调查 | Wong等[39],2021 | 医学成像和放射科学杂志 | 定性研究

探索沙特阿拉伯放射科医生对基于AI的应用及其对放射学未来影响的看法的定性研究 | Alsharif等[40],2022 | 英国放射学开放 | 定性研究

医疗专业人员对医疗人工智能的期望及临床实施策略:定性研究 | Yoo等[41],2023 | 医疗信息学研究 | 定性研究

人工智能对临床教育的影响:伦敦(英国)研究生培训医生的看法和对培训师的建议 | Banerjee等[16],2021 | BMC医学教育 | 定性研究

放射学未来调查:放射科医生、医学生和外科医生;学生和外科医生往往对人工智能更加怀疑,放射科医生可能担心其他学科接管 | van Hoek等[42],2019 | 欧洲放射学杂志 | 定性研究

临床人工智能在医生和医学生中的接受度:横断面调查的系统综述 | Chen等[43],2022 | 医学前沿 | 综述

人工智能和员工健康——新挑战 | Walusiak-Skorupa等[44],2023 | Medycyna Pracy Workers' Health and Safety | 综述

麻醉护理中的人工智能:麻醉医师的调查 | Alamo等[45],2024 | 麻醉和镇痛 | 定性研究

提高医疗AI的接受度:医务人员参与AI开发的作用 | Huo等[46],2023 | 国际医学信息学杂志 | 定性研究

人工智能在放射学中的崛起影响:学生怎么想? | Barreiro-Ares等[47],2023 | 国际环境研究与公共卫生杂志 | 定性研究

1,041名放射科医生和放射科住院医师中关于放射学中AI的国际调查第1部分:替代恐惧、知识和态度 | Sangers等[48],2023 | 皮肤病学研究档案 | 定性研究

为成功实施皮肤癌护理中的人工智能:探索皮肤科医生和全科医生观点的定性研究 | Huisman等[49],2021 | 欧洲放射学 | 定性研究

身份威胁作为抵制人工智能的原因:对医学生和专业人士的调查研究 | Jussupow等[17],2022 | JMIR形成性研究 | 定性研究

医学中新的数字技术的接受和抵制:定性研究 | Safi等[50],2018 | JMIR研究方案 | 定性研究

成像中人工智能的知识和态度:定量调查文献回顾 | Bhandari等[51],2021 | 临床成像 | 综述

图1. PRISMA-ScR(系统评价和荟萃分析优先报告项目范围综述扩展)流程图,说明研究选择过程。PRISMA-ScR流程图提供了研究选择过程的视觉摘要。它详细说明了确定的研究数量(N=217)、筛选、评估合格性和包括(n=32)在这项范围综述中。该图突出了选择相关研究的系统方法,确保审查方法的透明度。AI:人工智能。*从PubMed确定。

主题1:国家调查

该类别有13项研究,均为定量研究。这些出版物对在特定国家或地区工作的医生或其他医疗专业人员的态度进行了重点分析,结果特定于该地理区域。

一项沙特阿拉伯的研究确定了阻止放射科医生使用AI的多种因素。这些障碍包括预算限制、缺乏法规、支持不足、培训不足以及缺乏基于AI的应用和专业知识。缺乏专业知识、法规和支撑系统被另一篇文章引用为主要障碍,阻碍AI的有效采用。放射技师难以获得与AI相关的培训[38,40]。

约旦的研究人员确定了类似问题。在他们的研究中,障碍包括对AI了解不足、无法获得AI或适当的技术设备、对伦理和隐私的担忧、由于教育承诺而时间不足、认为AI过于复杂、未将AI纳入教育课程,以及缺乏学习和实践AI技能的场所或机会[31]。

非洲的研究人员发现了类似的担忧。放射技师指出,AI的引入及其使用可能对其核心技能产生负面影响。还强调了与图像操纵和网络安全相关的伦理问题和潜在的医事法律问题。报告的问题包括工人培训和技术能力不足、数据权利框架不足、公共政策限制、安装和管理AI设备的高成本、对就业替代的担忧以及互联网连接困难[37]。

Gong等[33]对AI对加拿大医学生对放射学领域兴趣水平的影响进行了研究。对AI可能取代而非完全取代放射科医生的担忧,阻止了许多学生考虑将放射学作为职业。另一项关于肿瘤学专业人员的加拿大研究表明了类似发现——AI知识中等,对因AI导致的工作丧失和实践变化表示担忧[39]。

Kwak等[26]在韩国进行了一项研究,调查护理学生的行为意图观点。大多数护士和学生(>70%)对临床实践中AI的理解不足。他们的担忧涉及由AI医疗设备的故障和不完善技术引起的歧视和伦理问题,以及由于AI缺乏累积数据或学习错误导致的信息扭曲和偏见以及隐私侵犯。AI伦理意识对行为意图没有显著影响。

同一批研究人员对韩国210名护理学校学生进行了调查,以预测他们使用基于AI的医疗保健技术的意图。他们发现绩效期望和自我效能对负面态度的路径有负面影响,而焦虑有正面影响。此外,他们指出>70%的学生不理解AI,并且对由于AI缺乏累积数据或学习错误导致的歧视、隐私、由故障引起的伦理问题以及信息扭曲和偏见的担忧日益增加[34]。

另一项韩国研究调查了首尔一家三级教学医院急诊科和重症监护室的医疗专业人员。参与者提到了对工作流程扭曲、技能退化、警报疲劳和不成熟的算法的担忧。如果医疗AI决策与他们的判断相矛盾,大多数参与者会咨询其他医务人员,然后重新考虑他们的初始判断[17,41]。

Banerjee等[16]研究了伦敦英国研究生培训医生的看法。自由文本回应的专题分析揭示了负面子主题。这些包括临床判断发展减少、实践技能机会有限、工作流程侵入、行政工作量增加以及临床责任和诚信发展减少。培训生认为临床AI可能会减少他们的实践技能、临床判断和决策能力。另一个担忧是可能引起信息过载的增加的行政工作量。

根据Orlova等[36]的调查,俄罗斯35.6%的受访者表示他们熟悉AI。在挑战中,受访者引用了灵活性不足和在有争议问题上的应用有限。此外,他们对信息不足时AI决策困难表示担忧,并担心经验不足的专家参与AI开发。此外,89%的受访者认为医疗专业人员应该参与医学和医疗保健的AI开发。伦理和法律问题以及知识缺乏是AI实施的常见障碍。

Roganović等[35]对塞尔维亚贝尔格莱德牙医学院的熟练牙医和高年级本科生进行了调查。总共193名受访者,尤其是学生,表现出对AI理解不足并对AI持怀疑态度。这种情况的主要因素是对AI技术知识的缺乏,以及对被AI取代的恐惧以及缺乏监管政策。与男性同行相比,女性牙医对AI在牙科实践中应用的伦理考虑表现出更高水平的认识和担忧。

van Hoek等[42]将注意力集中在瑞士的放射科医生、学生和外科医生身上。调查有170名参与者。与放射科医生相比,外科医生的支持度较低(P=0.001)。与放射科医生相比,学生认为AI作为潜在威胁的可能性更高(P=0.04)。医学生和外科医生往往对AI更加怀疑;学生将AI视为对诊断放射科医生的潜在威胁,而放射科医生自己则更害怕领域损失。

主题2:技术压力

"技术压力"一词被特别选为此主题,因为它准确地概括了将先进技术整合到专业工作流程中所涉及的独特压力源和心理负担。该主题有9项研究,包括7项(78%)定性研究和2项(22%)文献综述。基于定性研究,4项(44%)研究调查了医疗专业人员对医疗AI的看法,无论其专业;1项(11%)研究专门关注放射科医生,另一项(11%)关注麻醉师,1项(11%)探索了皮肤科医生和全科医生(GPs)的意见。

皮肤科医生和全科医生首先确定使用AI的主要障碍是对AI准确性的怀疑、算法评估中临床发现缺乏整合以及算法透明度不足。第二个主要障碍是健康不平等的风险,例如算法训练数据中对浅色皮肤类型的偏见以及(不)使用AI时医院之间的准确性偏差。皮肤科医生提到的第三个障碍是对被AI取代的恐惧。全科医生提到了使用AI将花费的额外时间[48]。对替代的恐惧也在放射学中AI的国际调查中被提及;38%的参与者强调了这一点。AI特定知识很少的男性参与者报告恐惧的频率明显更高。中等和高级知识水平可能会促进AI在临床实践中的采用,而基本知识水平似乎具有抑制作用。职业疑虑与95%的人的替代恐惧显著相关(P<0.001)[49]。

研究结果与调查麻醉师观点的研究一致。此外,45%的参与者对将医疗AI纳入对麻醉师需求和收入的潜在影响表示担忧。他们认为,十年内,AI将在预测不良围手术期事件(83%)、制定疼痛管理计划(67%)和进行气道检查(45%)方面超越他们。确定的主要障碍是算法透明度不足(60%)、有利于医疗事故索赔的环境(47%)以及医疗错误的潜在风险(47%)[45]。

技术压力类别中有4项研究调查了无论其医学专业如何的医疗专业人员的情绪。他们都获得了类似的结果。Safi等[50]的研究验证了医疗保健部门使用新技术取决于个人特征。医疗专业人员担心技术是管理控制的手段,从而阻碍了他们在诊断中的自主权并影响了他们与患者的互动。Jussupow等[17]调查了与新技术相关的某些担忧是否可能构成足够大的风险,导致拒绝和抵制。该研究调查了医疗专业身份威胁的两个方面:对医生专业知识的挑战和对医生作为独立医疗专业人员角色的挑战。这两种威胁都导致感知到的自我威胁和对AI的抵制。与医疗专业人员相比,医学生经历了更强的身份威胁和对AI的抵制。

Huo等[46]调查了医疗专业人员参与AI开发是否降低了对AI的抵制。他们展示了工作人员参与对AI可接受性的心理影响。他们区分了用于个人诊断的AI和用于辅助诊断的AI,表明AI焦虑介导了工作人员参与对AI接受的影响。他们发现工作人员参与对个人诊断AI和辅助诊断AI接受都有积极影响。认知和情感态度都影响AI接受度。物种主义调节了工作人员参与对AI焦虑的影响;参与AI开发的物种主义水平较高的工作人员倾向于降低医疗专业人员的焦虑。

Chen等[43]发现,医疗专业人员和医学生都对医疗AI表达了若干担忧。这些担忧包括对临床AI缺乏信任,以及希望结果由人类临床医生验证。还担心AI结果的不可预测性和临床AI中可能出现的错误。此外,还担心操作员依赖性和使用医疗AI导致的程序时间增加。其他担忧包括AI在意外情况下的表现不佳、缺乏同理心或沟通、缺乏伦理上可辩护的法律和政策、AI错误的医事法律责任不明确、数据安全和隐私泄露风险、AI算法的不透明性、用于训练和验证的高质量数据集有限,以及跨学科人才短缺。这两项系统文献综述主要强调了教育的重要性。

Bhandari等[51]的研究结果表明,学生对未来工作前景的担忧比医疗专业人员更多。此外,48.2%的学生不太可能因为AI而选择放射学作为职业。Walusiak-Skorupa等[44]研究了AI对工人整体福祉的影响。负面影响可能在身体和心理方面显现。身体上,可能导致对机器控制不当和事故风险增加。心理上,可能导致技术压力、恐惧、因自动化导致的就业排斥、劳动力市场变化以及社会差异扩大。在医疗保健领域,我们的主要重点是解决心理影响。

主题3:高层次视角

这种视角检查了广泛模式、伦理问题、全球趋势和可能的社会影响,提供了对该主题的全面视图。随后提到的研究为围绕医疗AI的更广泛讨论提供了有价值的见解,为政策讨论和未来研究方向提供了信息。

对自己独特性有更好认知的消费者往往对医疗AI表现出更大的抵制。医疗专业人员担心医疗AI有效处理患者个体特征的能力,这可能导致在实际环境中不愿采用医疗AI。Barreiro-Ares等[47]研究了AI在放射学中的崛起影响。在281名受访者中,95.7%同意需要在AI中实施完善的伦理原则。最大的担忧是他们无法在全球临床背景下解释患者(78.65%);这与先前研究的结果一致。其他担忧包括高成本实施(41.28%)、患者隐私权可能受到威胁(38.08%)以及医疗专业人员管理AI所需的培训(38.08%)[36,41]。Bhardwaj[30]还发现,使用AI的注意事项和挑战包括数据获取和验证、患者护理的范式转变、成本效益和价值主张、数据所有权和完整性,以及消费者隐私问题[52]。

另一项研究还分析了人们对使用医疗AI的犹豫,并发现了现有研究中的差距。研究人员从以变量为中心的方法转向以人为中心的方法。他们发现,虽然一些人对医疗AI保持一致的知识、态度和行为,但其他人表现出更多的可变性。据他们称,一个人的知识和对医疗AI的负面态度之间可能存在脱节,决策者在向个人提供建议时应谨慎,即使是那些对医疗AI有高知识的人[27]。某些专业,如放射学,已经相当快地接受了AI,而其他专业,特别是病理学,才刚刚开始将AI纳入其实践。在放射科医生社区中,存在关于医疗AI的某些缺点和偏见。

缺点是AI需要大量数据来创建高质量的训练集,以便算法学习知识。这个过程对放射科医生来说可能既昂贵又耗时。新技术的广泛采用可能会放大系统性伤害风险,增加产生重大后果错误的可能性,并加剧复杂的社会和伦理问题。病理学家担心被计算机算法取代的可能性。他们强调监管批准至关重要[18]。

讨论的一个关键主题围绕增强对AI的信任。研究人员研究了自主车辆和医疗辅助设备中应用AI和信任的情况。我们关注后者。他们建议公司必须在技术开发过程中开始建立信任。在医学及其各个分支日益数字化的世界中,医疗专业人员需要支持AI,而不是害怕取代熟练的医疗专业人员[15,25]。

AI的整合正在重塑医疗专业人员的角色和能力,促进将人类专业知识与技术增强相结合的新形式专业身份,这在内在上表现出来。从外在上看,它提高了诊断和治疗的准确性,同时引入了伦理和同理心挑战,重新定义了患者-临床医生关系的动态。总之,在3个主题中,我们确定了研究文献中提到的15个具体态度来源。

为了更好地理解,我们根据态度的来源将这些来源分为2组:内在和外在组。第一组是关于医疗专业人员自身与其角色和能力相关的职业身份,而另一组则与他们的患者以及AI对患者护理的影响有关。外在来源包含外部因素,如组织政策、伦理问题、患者联系和技术限制,而内在来源包含内部因素,如个人信念、技能、个人身份和专家地位。

两个来源,对未来的不确定性和责任,被证明重叠,影响医疗专业人员及其患者。如图2所示,这种分类有助于理解这些态度来源的多面性。

图2. 审查中确定的医疗专业人员(HCPs)态度来源的分类。该图对与使用医疗人工智能(AI)相关的医疗专业人员(HCPs)的态度来源的15个已确定来源进行分类。态度来源分为2个主要类别:外在(外部因素,如组织政策、伦理问题、患者联系和技术限制)和内在(内部因素,如个人信念、技能、个人身份和专家地位)。两个来源,对未来的不确定性和责任,显示为重叠,影响医疗专业人员及其患者。该分类有助于理解这些担忧的多面性。

讨论

主要发现

这项范围综述考察了医疗专业人员对医疗AI的负面态度,以了解其采用的障碍。我们确定了5种关键态度:怀疑、不情愿、焦虑、抵制和恐惧。专题分析揭示了3个主要主题:国家调查、技术压力和高层次视角。分析我们范围综述中的32项研究使我们能够检查前面提到的态度量表,并确定这些态度的潜在来源。虽然医疗专业人员认识到AI的潜力,但他们也表达了由恐惧驱动的担忧。本研究探讨了这些负面态度的来源。通过教育、医疗专业人员参与AI开发以及明确的法规来解决这些问题可能有助于成功整合。

我们在国际背景下解释我们的发现,以提供对其意义的更广泛理解。在内在组中,技术压力是一个关键概念和负面态度的来源。技术压力表现为因感到被新技术压倒而产生的焦虑、紧张或压力。当医疗专业人员难以积极有效地适应和掌握新技术时,就会出现这种感觉。这可能导致对其在日常实践中整合医疗AI的犹豫。

"技术压力"一词于1984年开发,当时心理学家Craig Brod在他的书《技术压力:计算机革命的人力成本》中介绍了它。Brod将技术压力描述为由于无法适应新计算机技术而产生的一种状况。它表现为对计算机的过度认同或计算机焦虑。技术压力影响个人对时间的定位、沟通方式和人际关系[53]。目前,技术压力有5个不同的子类别。

技术负担指被过多数据和持续通知压倒的感觉。技术侵入发生在个人和专业生活之间的界限因持续连接的期望而模糊时。技术复杂性涉及对有效使用技术的困惑。技术模糊性源于快速数字变化引起的不确定性。最后,技术不安全感涉及对因引入新技术而导致的工作替代或角色变化的担忧[43]。我们将所有子类别包含在技术压力的总称下。

与态度的内在来源相比,外在来源指的是医疗专业人员对他们实施医疗AI将如何影响患者健康和福祉以及他们与患者关系动态的担忧。这一方面还包括伦理和社会考虑。

与医疗AI相关的伦理问题一直是研究人员关注的问题。第一个比较人类(临床判断)预测与统计模型预测的研究的系统综述由Meehl[54]发表。他们的综述表明统计模型在预测各种结果方面优于人类。在英国研究人员进行的比较中,医疗专业人员提供的分诊诊断的准确性为77.5%,而AI达到了更高的准确率90.2%。

医疗专业人员通常更喜欢依赖自己的直觉而不是统计模型,并且如果他们依赖计算机化决策辅助,会被评为不太专业和不太称职。此外,人们更可能遵循医生的建议而不是计算机的建议[29]。

这可以用一种称为"独特性忽视"的现象来解释,这指的是担忧AI提供者不如人类提供者能够考虑消费者的独特特征和情况。在我们的上下文中,消费者可以指既担心患者的医疗专业人员,也可以指担心医疗AI准确识别和有效解决其个人医疗状况能力的患者。当消费者将自己视为与他人不同和分离时,他们认为机器只能以标准化和重复的方式运作,以相同的方式处理每个任务或位置。威胁自我独特性的情况会导致焦虑感。

在医疗保健背景下,这些信念表现为消费者将其健康相关特征视为独特且不同于普通人。独特性忽视导致医疗专业人员和患者双方对医疗AI的抵制[29]。态度的外在来源主要出现在3个主题中的高层次视角主题中。然而,一些研究也在其他2个主题中提到了外在来源[34,43,44,51]。

正如我们之前简要提到的,态度的两个来源,责任和对未来不确定,属于两个类别,因为它们影响医疗专业人员及其患者。

医疗AI中的责任很复杂,涉及多个利益相关者。当问题出现时,责任可能落在技术开发者、雇佣机构、使用AI的医生或已同意使用AI的患者身上。责任的分配取决于具体情况。关于未来的不确定性也同样影响医疗专业人员的实践,因为他们可能担心AI最终是否会取代他们,或者他们是否能跟上快速发展的技术。这种不确定性也延伸到患者。医疗专业人员可能担心患者的未来以及使用新技术是否一定会使他们受益。在三个主题中几乎相等的比例中体现了位于交叉点的态度来源。

所检查的5种态度量表涵盖了广泛的担忧。文献中报告的这些态度的频率如下:怀疑占19%(6/32)的研究,不情愿占2%(2/32)的研究,焦虑占25%(8/32)的研究,抵制占9%(3/32)的研究,恐惧占41%(13/32)的研究。

态度量表,从最弱到最强的负面态度组织,包括怀疑、不情愿、焦虑、抵制和恐惧。值得注意的是,最强的负面态度,恐惧,是研究中报告最频繁的。我们还检查了与每种态度类型相关联的具体来源。似乎恐惧、焦虑、怀疑和抵制包括外在和内在类型的担忧,而不情愿仅包含内在担忧。如表3所示,内在来源更为全面,几乎出现在每种态度中,而外在来源仅出现在1或2种态度中。内在来源,如工作丧失和个人身份,显著影响所有测量的态度,反映了它们的广泛影响。相反,态度的外在来源,如伦理问题和患者益处,显示出较窄的影响。该图的可视化有助于理解个体态度来源如何与特定专业态度对齐。

表3. 医疗专业人员态度来源与态度量表之间的关联。该图说明了特定态度来源与医疗专业人员态度之间的关系,通过态度量表测量。该图的可视化有助于理解个体态度来源如何与特定专业态度对齐。

来源 | 怀疑 | 不情愿 | 焦虑 | 抵制 | 恐惧

--- |---|---|---|---|---

内在

工作丧失 | ✓ | ✓ | ✓ | | ✓

个人身份 | ✓ | ✓ | ✓ | ✓ | ✓

专家地位 | ✓ | ✓ | ✓ | ✓ | ✓

领域丧失和权威 | ✓ | ✓ | ✓ | ✓ | ✓

技能退化 | ✓ | | | ✓ |

过度依赖AI | | ✓ | | | ✓

工作流程扭曲 | ✓ | | ✓ | |

技术压力 | ✓ | ✓ | ✓ | ✓ | ✓

AI作为控制方式 | | ✓ | | |

警报疲劳 | ✓ | | | |

外在

患者益处 | | | ✓ | ✓ |

伦理问题 | | | ✓ | ✓ |

自动化偏见 | | | | ✓ |

独特性忽视 | | | | | ✓

与患者的联系 | ✓ | | ✓ | ✓ |

共同

不确定性 | ✓ | ✓ | | | ✓

责任 | ✓ | ✓ | ✓ | | ✓

AI:人工智能。

我们研究的一个目标是为所检查的挑战提供解决方案。我们的研究结果表明,以下因素可能有助于有效实施医疗AI:易于获取和高质量的教育、医疗专业人员在开发过程中的参与、对医疗专业人员态度来源的理解,以及医疗AI的透明监管。

教育有潜力减轻医疗专业人员对自己的担忧。当前的研究结果表明,他们对医疗AI、其操作、潜力和局限性的了解越多,他们就越自信,越愿意将其整合到日常实践中。关于与患者相关的伦理和社会担忧,我们看到通过建立适当的法规来缓解的可能性。随后提到的策略可能有助于缓解未来医疗专业人员的担忧。

为了有效地将基于AI的技术整合到临床实践中,医疗专业人员和学生建议改进系统准确性,逐步将AI系统整合到常规程序中,并通过积累数据在医疗专业人员中建立和维持信心。他们强调,机器学习应使用足够的输入变量来开发算法,训练数据集应绝对没有错误。强调了警报疲劳管理和工作流程整合的重要性。基于AI的方法可用于优化医院环境中的药物警报[55]。

此外,提到了关于基于算法的医疗决策的法律问题以及系统集成和算法使用的可管理成本[35,36]。最佳实践似乎应包括开发者、医疗保健机构和医生之间的合作,以确保AI的安全和负责任使用。这种协作方法将有助于降低风险并提高医疗AI系统的可靠性和有效性。

基于我们的发现,医疗专业人员和医学生对医疗AI的接受度取决于理解他们的焦虑和不安全感。教育是接受医疗AI和减少与其相关的担忧的关键因素。

医生对医疗AI的教育和经验越多,他们就越善于克服障碍,越自信。所有研究都同意,医疗领域中AI的态度和知识仍然是一个需要进一步研究和关于其在临床环境中使用教育的话题。

根据Chen等[43]的说法,医疗AI应纳入医学培训课程和毕业后培训。医疗专业人员需要学习如何操作AI工具、判断AI结果输出的可靠性以及重新设计当前工作流程。此外,医疗专业人员不仅应成为AI的主要用户,还应参与AI技术的构建。

医学生似乎对AI感兴趣,但他们没有接受过关于AI的教育,也不觉得他们理解其基本计算原理或局限性。AI在医学课程中似乎存在当前缺陷。这些结果与先前进行的国际调查一致[56]。

然而,这种教育的确切方法至关重要。各种机构提供了许多培训计划,但它们通常是偶发的、短期的,并未整合到医疗专业人员的学习路径中。AI培训最近才出现的事实在这些计划提供的内容与医疗专业人员需要学习的内容之间造成了重大差距。明确需要适当的培训,包括在临床部门实施AI的使用、好处、挑战和问题,以确保它提高医疗专业人员的信心。

研究结果还表明,需要教育数据素养、技术素养、系统思维、AI算法和AI的伦理意义,以提高医疗专业人员的能力。在不追求完整性的情况下,我们提到了一些已经可用的教育计划,如表4所示。

表4. 已经可用的关于医疗人工智能(AI)使用的教育计划。

计划标题;来源 | 参考文献

--- |---

AI for Healthcare: Equipping the Workforce for Digital Transformation;FutureLearn | [57]

Artificial Intelligence in Health Care;MIT Management Executive Education | [58]

Digital Health;Harvard Online | [59]

AI and Digital Transformation in Healthcare;University of Cambridge Institute of Continuing Education | [60]

Foundations of AI in Healthcare;University of Melbourne | [61]

Barreiro-Ares等[47]建议学生应参与涉及AI实际应用的实践活动。他们还应学习在工作中有效和批判性地使用AI。同样,应为具有高潜力的年轻个体提供使他们能够战略性规划和推进其未来职业发展的计划。

尽管讨论的大多数研究强调了教育对医疗AI的有益方面,但根据Banerjee等[16]的研究,医学教育者应注意临床AI可能阻碍培训的某些领域。让医疗专业人员参与算法开发将帮助学员继续发展他们的技能,因为这样AI将依赖他们的培训来模仿行为。这也将增加对AI技术的信任并提高向患者的可解释性。

根据Bhardwaj[30]的说法,对AI驱动环境中消费者隐私和大量医疗保健数据所有权的担忧似乎是关键话题。有意和无意的泄露都可能导致财务损失。政策制定者和立法机构需要制定法规,定义第三方付款人在资助机器学习辅助医疗保健中的作用。

通过各种媒体渠道进行公众教育和培训对于解决对机器学习辅助算法的误解和塑造公众舆论至关重要。根据欧洲和北美多社会声明,AI应优先考虑人权、隐私和尊严,以在患者、医疗专业人员和AI系统之间建立信任。然而,透明度的广泛定义必须在揭示关键信息和保护患者隐私之间取得平衡[30]。

鉴于当前医疗专业人员的严重短缺和他们面临的过度工作量,迫切需要AI可以为医疗专业人员提供的支持。使用医疗AI,医疗专业人员可以外包重复的、基于数据的任务;促进他们的福祉;并确保他们能够为患者提供最佳护理[14]。当医疗专业人员有效且自信地使用技术支持时,他们可以简化重复的、通常是单调的和要求高的行政工作,使他们能够优先考虑选择这个职业的主要目的,即提供患者护理和充满激情的治愈[62,63]。

范围综述容易受到几个限制。一个重大限制是存在选择偏差。如果选定的研究不代表相关研究的全部语料库,可能会导致潜在的偏见结果。此外,我们的工作可能受到数据驱动偏差的影响,因为我们特别选择了构成量表的态度,这可能不包括医疗专业人员经历的所有相关态度。搜索仅限于特定关键词(恐惧、抵制、怀疑、不情愿和焦虑),可能排除了使用其他词汇描述对AI的负面情绪的相关出版物。

仅考虑有英文摘要的文章,可能会排除以其他语言发表的相关研究。本综述仅依赖PubMed作为来源,可能忽略了其他数据库中编目的相关研究。

另一个限制是可能存在发表偏差,其中具有有利结果的研究更倾向于发表,而具有不利或不确定结果的研究可能代表性不足,从而可能限制可用的文章选择。通过排除社论、评论和其他非原始研究文章,可能忽略了重要的见解和专家观点。

定性数据的主观解释可能导致研究者偏差,因为我们的感知可能影响负面情绪的分类和分析。不同研究中对负面态度的定义和测量的差异可能影响比较结果的能力。

最后,AI在医学中的快速发展意味着我们的发现可能随着新技术和见解的出现而迅速过时,限制了我们结论的长期适用性。

考虑到所有这些因素,我们仍然相信我们的发现为理解和解决医疗专业人员对医疗AI的负面态度提供了宝贵贡献。虽然先前的研究已经广泛考察了对医疗AI的一般态度,但我们的发现突出了一个关键差距,即文献忽视了医疗专业人员的具体负面态度。

我们的发现超出了AI采用的直接挑战,突显了医疗保健数字和文化转型中的一个更广泛问题——需要将技术进步与医疗专业人员的专业身份和伦理责任协调起来。对AI的负面态度不仅仅是对技术本身的反应,而是反映了对自主性、伦理问题、临床决策以及医疗专业人员在患者护理中不断变化的角色的更深层次疑虑。

成功的AI整合需要转变观念,将AI定位为增强而非取代人类专业知识的工具。这需要在医学课程中进行结构化的AI教育、持续的专业发展、AI开发中的跨学科合作,以及建立透明的伦理和监管框架。解决这些负面态度对于促进AI接受度至关重要,并确保医疗保健中的技术进步与患者和医疗专业人员的最佳利益保持一致。除了教育和监管努力外,AI采用策略还必须承认并积极缓解这些根深蒂固的负面态度,确保AI整合不会侵蚀医疗专业人员的专业知识感或专业身份。

结论

在我们的范围综述中,最终分析选定的研究被分为3个主题:国家调查、技术压力和高层次视角。我们开发了一个态度量表来检查文献中报告的与医疗AI相关的担忧。态度量表似乎得到了很好的涵盖,并且也出现了许多态度来源。这些来源根据其来源分为2组:外在和内在。

我们分析了这些态度来源与3个已识别主题以及量表中5种态度之间的关联。似乎恐惧、焦虑、怀疑和抵制包括外在和内在来源,而不情愿仅包含内在来源。态度的内在来源更为全面,几乎出现在每种态度中,而态度的外在来源仅出现在1或2种态度中。

总结研究结果,我们得出结论,克服对医疗AI抵制的关键似乎在于有效的教育、适当法规的建立以及责任的明确界定。鉴于法规目前是一个热门话题,也是众多研究的主题,我们选择更多地关注教育[52,64-66]。

目前有各种关于此主题的培训计划,尽管其质量参差不齐。我们在讨论部分提到了一些教育计划。医生能够区分哪些来源提供关于医疗AI使用的可信知识至关重要。此外,引起决策者的注意并利用这些计划提供的机会也很重要。

我们的发现旨在为改善医疗专业人员与患者之间的沟通提供有价值的见解,同时为医疗保健机构提供基于AI技术发展的新机遇。我们希望这些发现能够对医疗保健中AI驱动技术的持续发展做出重大贡献,使医疗专业人员能够提供更加个性化和高效的治疗,从而提高幸福感并在其职业中增强能力感。

数据可用性

本研究期间生成或分析的所有数据均包含在本发表文章及其补充信息文件中。

作者贡献

AN汇编了综述的数据并撰写了初稿。BM提供了方法指导和文本审阅。GK协助文本审阅和校对。

利益冲突

BM曾担任《Journal of Medical Internet Research》的客座编辑。该作者未参与本手稿的同行评审、编辑评审或任何编辑处理方面。

【全文结束】

猜你喜欢
  • 英国国家医疗服务体系支持AI笔记工具以增加面对面诊疗时间英国国家医疗服务体系支持AI笔记工具以增加面对面诊疗时间
  • ECRI将AI聊天机器人误用列为2026年医疗技术首要风险ECRI将AI聊天机器人误用列为2026年医疗技术首要风险
  • 专家称AI在医疗保健中的益处远超潜在风险专家称AI在医疗保健中的益处远超潜在风险
  • ChatGPT Health平台为患者提供医疗咨询的机遇与风险 康涅狄格专家深度解析ChatGPT Health平台为患者提供医疗咨询的机遇与风险 康涅狄格专家深度解析
  • AI时代医院系统技术工作的障碍AI时代医院系统技术工作的障碍
  • CMS希望加速技术创新和人工智能在患者护理中的应用 为2026年设定重大目标CMS希望加速技术创新和人工智能在患者护理中的应用 为2026年设定重大目标
  • JPM 2026:FDA专家小组强调加速审批、国家安全、人工智能等优先事项JPM 2026:FDA专家小组强调加速审批、国家安全、人工智能等优先事项
  • 代理时代开拓者:弥合1.7万亿美元的遗留系统与人类护理鸿沟代理时代开拓者:弥合1.7万亿美元的遗留系统与人类护理鸿沟
  • 痴呆症患者为何会游走——家庭如何确保他们的安全痴呆症患者为何会游走——家庭如何确保他们的安全
  • 20个ChatGPT医疗写作提示(面向初学者)20个ChatGPT医疗写作提示(面向初学者)
热点资讯
全站热点
全站热文