倾听患者关于人工智能在医疗保健中使用的声音:横断面研究Journal of Medical Internet Research - Listening to Patients’ Voices on the Use of AI in Health Care: Cross-Sectional Study

环球医讯 / AI与医疗健康来源:www.jmir.org加拿大 - 英语2026-01-02 01:47:28 - 阅读时长31分钟 - 15027字
本研究基于2023年加拿大数字健康调查数据,分析了6904名加拿大成年人对人工智能在医疗保健中应用的知识水平和接受度。研究发现,42.3%的受访者表示对人工智能有中等程度的了解,仅7.8%认为自己非常了解;44.6%对医疗保健中使用人工智能感到舒适,但在知情同意使用个人健康数据时,这一比例上升至64.7%,而未经同意使用时则降至47.4%。研究还发现,男性、非公民、高收入者、高数字健康素养者以及有更多慢性病的患者对人工智能的接受度更高,而低收入者和白人受访者的接受度较低。这些发现强调了透明政策、数字素养提升和伦理数据治理对增强公众对人工智能驱动医疗保健信任的重要性,同时揭示了不同社会人口群体间存在的数字鸿沟问题,为未来制定更具包容性和公平性的AI医疗解决方案提供了实证依据。
健康医疗保健人工智能患者态度健康数据数字健康素养伦理数据治理知情同意舒适度社会人口学因素慢性病信任
倾听患者关于人工智能在医疗保健中使用的声音:横断面研究

倾听患者关于人工智能在医疗保健中使用的声音:横断面研究

摘要

背景:人工智能(AI)在变革医疗保健服务方面具有巨大潜力。然而,医疗保健中AI项目的成功实施取决于患者的接受度和信任。目前关于公众认知的实证研究有限,特别是关于医疗保健中AI应用使用个人健康数据的研究。

目标:本研究考察了公众对医疗保健中AI使用的知识水平和舒适度,包括在有无知情同意的情况下使用个人健康数据的情况,并评估了社会人口学因素、数字健康素养和健康状况如何影响这些认知。

方法:我们分析了2023年加拿大数字健康调查中6904名加拿大成年人的数据。使用有序量表测量了与AI相关的知识和舒适度水平。社会人口学特征、数字健康素养和自我报告的慢性健康状况被作为预测因素。使用有序逻辑回归模型评估这些因素与AI相关态度之间的关联。

结果:大多数受访者2919人(42.3%)报告对AI有中等程度的了解;仅有7.8%(542人)自认为非常了解。总体而言,44.6%的受访者对医疗保健中使用AI感到舒适,在知情同意使用个人健康数据时,这一比例上升至64.7%,但在未经同意使用时则下降(52.6%感到不适)。受访者对AI用于疫情追踪和工作流程管理最为接受,而对临床任务的使用接受度较低。完全加权的有序逻辑回归模型表明,男性(比值比[OR]=1.57,P<.001)、非公民(OR=1.71,P<.001)、高收入受访者(OR=1.29,P<.001)、研究生学历者(OR=1.43,P<.001)、数字健康素养较高者(OR=1.08,P<.001)以及患有更多慢性病者(OR=1.08,P<.001)报告更高AI知识的可能性更大。对于医疗保健中AI使用的舒适度,65岁以上成年人(OR=1.47,P<.001)、男性(OR=1.50,P<.001)、非公民(OR=1.49,P<.001)、高收入受访者(OR=1.21,P<.001)、数字健康素养较高者(OR=1.06,P<.001)或患有更多慢性病者(OR=1.04,P=.04)表现出更高的舒适度。低收入(OR=0.87,P=.03)和白人受访者(OR=0.77,P<.001)报告的舒适度较低。对于在知情同意情况下使用个人健康数据于AI的舒适度,35-54岁成年人(OR=0.72,P<.001)比16-24岁人群舒适度更低。男性(OR=1.39,P<.001)、高收入受访者(OR=1.16,P=.01)、数字健康素养较高者(OR=1.05,P<.001)或患有更多慢性病者(OR=1.07,P<.001)表现出更高的舒适度;而白人(OR=0.78,P<.001)、其他种族群体(OR=0.77,P=.03)和低收入受访者舒适度较低(OR=0.83,P=.01)。对于在未经同意情况下使用个人健康数据于AI的舒适度,男性(OR=1.56,P<.001)、非公民(OR=1.28,P=.03)和数字健康素养较高者(OR=1.04,P<.001)表现出更高的舒适度。低收入受访者(OR=0.86,P=.02)、35-54岁(OR=0.73,P<.001)或55-64岁(OR=0.77,P=.01)成年人以及白人(OR=0.69,P<.001)和黑人或非洲裔(OR=0.71,P=.02)受访者报告的舒适度较低。

结论:研究结果表明,增强透明政策、数字素养和伦理数据治理是提高公众对人工智能驱动医疗保健信任的关键。

J Med Internet Res 2025;27:e77501

doi:10.2196/77501

关键词

患者态度;人工智能;技术接受度;负责任的人工智能;调查

引言

医疗保健中的人工智能(AI)广义上指使用先进的计算技术和算法,包括机器学习、深度学习、自然语言处理、大型语言和图像模型以及计算机视觉,从复杂的医疗数据中提取见解并增强临床决策[1,2]。通过将人类专业知识与数据驱动的见解相结合,人工智能有潜力彻底改变医疗保健服务的多个方面,从早期疾病检测[3,4]和药物发现[5,6]到提高医疗保健系统中的运营效率和资源分配[7]。高级生成式AI模型可以帮助分析各种数字内容,包括临床图像、视频、文本和音频,以及来自电子健康记录的临床数据[8]。全球医疗保健AI市场预计从2024年到2034年将以36.83%的复合年增长率增长,从266.9亿美元增至6138.1亿美元[9],这标志着医疗保健的提供和管理方式将发生重大转变。AI在临床实践中的快速整合在医疗保健专业人员、政策制定者和患者中既引起了兴奋,也引发了担忧。随着AI在临床环境中变得更加普遍,人们越来越担心其意外后果。AI可能会加深数字鸿沟并加剧差距,特别是对老年人、低收入群体和农村社区[10]。此外,围绕医疗保健中使用AI的伦理和监管挑战仍在广泛讨论中[11]。

虽然AI在医疗保健中的变革潜力已被充分理解,但其扩展采用引发了关于其对患者护理、公平性和伦理影响的重要问题。作为AI驱动医疗保健解决方案的最终受益者,患者在塑造AI技术的设计、实施和信任方面发挥着关键作用。然而,患者对AI的看法仍未得到充分探索。理解这些观点出于多种原因很重要。首先,它确保了患者信任和接受度,这对成功实施基于AI的医疗保健解决方案至关重要[12]。其次,它有助于解决AI算法中的伦理关切和潜在偏见,这些可能导致获得护理或诊断错误的机会不平等[13]。第三,对患者对AI看法的良好理解使AI解决方案能够与患者需求和偏好保持一致,最终改善健康结果和满意度[14]。

尽管了解患者对临床实践中AI使用的看法很重要,但该领域的研究仍然有限。虽然一些研究探索了医疗保健专业人员对AI的态度[15-22],但相比之下,患者的态度和关切受到的关注较少。一些研究报道了患者对医疗保健中使用AI的普遍积极态度[23,24],尽管他们也强调了对隐私和个人健康数据控制的担忧。其他研究记录了患者的抵制[25]、对AI的不信任[26]以及将AI使用限制在行政或调度功能等非临床任务上的偏好[27]。此外,研究还确定了患者由于感知到的安全风险、对患者自主权的威胁、医疗保健成本可能增加、算法偏见和数据安全问题而产生的担忧[28]。

本研究考察了患者对医疗保健中AI的知识水平、对AI在临床应用中的舒适度,以及对出于AI目的使用个人健康信息的态度。我们的研究框架如图1所示。我们还探讨了社会人口学特征、数字健康素养和健康状况如何与患者态度和舒适度相关联。具体来说,我们解决了两个研究问题:(1)公众对医疗保健中AI的知识水平和舒适度如何,包括在有无知情同意的情况下使用个人健康数据?(2)社会人口学因素、数字健康素养和慢性健康状况如何影响这些态度?通过解决这些问题,本研究旨在填补理解患者观点的关键空白,并为医疗保健中AI解决方案的伦理、公平和有效实施提供信息。

图1. 研究框架。AI:人工智能。

方法

数据集

本研究使用的数据来自2023年加拿大数字健康调查(CDHS),该调查由加拿大健康信息通道(Canada Health Infoway)委托进行,旨在评估加拿大人对数字健康服务(包括医疗保健中AI的使用)的体验和看法[29,30]。这项基于网络的调查由加拿大领先的市场研究公司Leger于2023年11月28日至12月28日进行管理。参与者(年龄在16岁及以上)从Leger Opinion的全国代表性在线小组中招募,使用计算机辅助网络访谈技术。共有10,130名受访者参与了调查,该调查提供英语和法语版本。

伦理考量

2023年加拿大数字健康调查获得了其10,130名参与者的知情同意,并遵守加拿大研究和洞察委员会的公众舆论研究标准以及全球ESOMAR(欧洲民意和市场研究协会)网络的标准,以确保方法严谨性和数据质量[29,31]。为保护隐私和机密性,受访者的信息被去标识化和匿名化。患者提供了数据收集和评估的同意。

变量

该调查使用4点有序量表评估了与患者对医疗保健中AI看法相关的四个关键变量。为评估参与者的AI理解程度,他们被要求在1(完全不了解)至4(非常了解)的量表上对自己的知识进行评级。通过问题"您对AI作为医疗保健工具的使用有多舒适?"来评估参与者的舒适度,量表范围从1(非常不舒适)到4(非常舒适)。类似的方法用于评估对在AI研究中使用个人健康数据的态度。参与者被问及当提供知情同意时,他们对自己个人健康数据被科学家用于AI研究的舒适度,使用相同的4点量表。为检查隐私担忧,调查还询问了关于在没有明确同意的情况下使用去标识化健康数据进行AI研究的舒适度水平。参与者还被要求对AI在7个领域的应用舒适度进行评价:监测和预测健康状况、为医疗保健专业人员提供决策支持、精准医疗、药物和疫苗开发、家庭健康状况监测、疫情追踪以及优化医疗保健工作流程。

参与者被要求自我报告由医疗专业人员诊断的任何严重或慢性健康状况。调查将慢性病定义为预期持续或已持续6个月或更长时间的状况。受访者可以从15种慢性病的预定义列表中选择:慢性疼痛、癌症、糖尿病、心血管疾病、阿尔茨海默病、发育障碍、肥胖、心理健康状况以及身体或感官障碍。此外,参与者可以选择指定任何未列出的其他慢性病,或表明没有慢性病。我们计算了一个代表每位受访者报告的慢性病总数的综合得分。

数字健康素养使用eHealth素养量表中的8个项目进行评估[32],该量表测量了在互联网上查找、评估和使用健康信息的能力。项目在5点李克特量表上评分(1=非常不同意到5=非常同意)。在使用探索性主成分分析与最大方差旋转确认其收敛性和可靠性(提取一个因素,确认单维性)和克朗巴哈α系数(0.934)后,将回答相加以创建数字健康素养得分,反映受访者在导航和利用在线健康资源方面的整体熟练程度。调查还捕获了以下社会人口学变量:年龄、性别、家庭年收入、公民身份、种族、教育程度和就业状况。

分析样本和无应答偏差

CDHS从10,130名加拿大成年人收集了与数字健康相关的广泛主题的数据。鉴于本研究关注医疗保健中AI的使用,仅包含对AI相关问题提供完整回答的6904名受访者作为分析样本。

为评估潜在的选择或无应答偏差,进行了卡方检验,以比较纳入和排除的受访者在所有社会人口学变量(年龄、性别、收入、教育、种族、就业和公民身份)上的差异。卡方检验显示,总体受访者和我们的分析样本在五个变量(年龄、性别、就业、教育和收入;P<.05)上存在显著差异,我们的分析样本中男性比例过高(53.2%对48.6%)、25-54岁人群比例过高(51.8%对48.6%)、高家庭收入比例过高(35.7%高于10万加元对33.6%)、高等教育水平比例过高(例如,研究生及以上:39.7%对37.4%)以及就业受访者比例过高(61.6%对58.6%)。

为解决这种偏差,我们推导了逆概率权重(IPW)以调整纳入分析样本的可能性。IPW值使用基于社会人口学变量预测纳入的逻辑回归模型估计。然后将这些权重与原始CDHS调查设计权重(考虑全国层面的抽样和无应答)相结合,创建复合总权重。这种组合加权方法确保在所有加权分析中同时考虑了调查设计和样本选择偏差。

统计分析

所有统计分析均使用STATA 18软件进行。描述性统计总结了受访者特征。为评估潜在选择偏差,如上所述推导了IPW。

为四个与AI相关的态度结果估计了有序逻辑回归模型:(1)医疗保健中AI知识,(2)对医疗保健中AI使用的舒适度,(3)在知情同意情况下对使用个人健康数据于AI的舒适度,以及(4)在未经同意情况下对使用个人健康数据于AI的舒适度。每个模型以三种方式估计:未加权、非应答调整加权(IPW)和完全加权(结合IPW和CDHS提供的调查设计权重),以评估稳健性。所有加权模型均使用STATA中的调查(svy)命令进行估计,以考虑复杂的调查设计。使用Cramer's V评估分类变量之间的潜在多重共线性,使用代理线性回归的方差膨胀因子评估。

结果

调查受访者的社会人口学特征如表1所示。我们的数据集中,大多数受访者年龄在35-54岁之间(2412人,34.94%),其次是65岁以上(1585人,22.96%)和55-64岁(1211人,17.54%)。男性受访者占多数(53.2%,3673人),女性受访者占样本的46.8%(3231人)。关于家庭收入,4699人(68.06%)报告收入为60,000加元或以上,而2205人(31.94%)收入较低。大多数人是加拿大公民(6581人,95.32%),非公民(323人,4.68%)占较小比例。在种族方面,样本中白人受访者占主导地位(5104人,73.93%),其次是亚洲裔(972人,14.08%)、其他(575人,8.33%)和黑人或非洲裔(253人,3.66%)受访者。教育水平各不相同,大多数人至少接受过一些大学教育(2831人,41.01%)或研究生学位(2738人,39.66%)。较少人拥有高中文凭(1174人,17%)或高中以下教育(161人,2.33%)。就业状况显示,4253人(61.6%)有工作。

表1. 受访者社会人口学特征(n=6904)

人口变量和类别 n (%)
年龄组(岁)
16-24 527 (7.63)
25-34 1169 (16.93)
35-54 2412 (34.94)
55-64 1211 (17.54)
65+ 1585 (22.96)
性别
女性 3231 (46.8)
男性 3673 (53.2)
家庭收入(加元)
<60,000 2205 (31.94)
60,000-100,000 2237 (32.4)
>100,000 2462 (35.66)
公民身份
公民 6581 (95.32)
非公民 323 (4.68)
种族
亚洲裔 972 (14.08)
黑人/非洲裔 253 (3.66)
其他 575 (8.33)
白人 5104 (73.93)
教育
高中以下 161 (2.33)
高中 1174 (17)
大学水平 2831 (41.01)
研究生及以上 2738 (39.66)
就业
就业 4253 (61.6)
失业 2651 (38.4)

注:a 1加元兑换率约为0.72美元。

我们的分析发现,受访者对医疗保健中AI使用的知识水平和舒适度各不相同(图2)。虽然大多数(2919人,42.3%)报告对AI有中等程度的了解,但只有7.8%(542人)自认为非常了解。相反,近一半的受访者(49.9%)认为自己的了解程度较低,其中38.7%(2669人)报告"不太了解",11.2%(774人)报告"完全不了解"。

图2. 2023年加拿大数字健康调查中加拿大成年人自我报告的AI知识和舒适度分布(n=6904)。AI:人工智能。

关于医疗保健中AI的使用,44.6%(3077人)的受访者报告中等舒适度,而42.4%(2927人)表示某种程度的不适。当AI涉及在知情同意下使用个人健康数据时,舒适度水平上升,64.7%(4466人,中等或非常舒适)支持此类AI使用。然而,当AI研究在没有明确同意的情况下使用去标识化数据时,舒适度水平下降,只有47.4%(3272人)报告舒适,52.6%(3632人)表示不适。当被问及对AI在各种医疗保健领域应用的舒适度时(图3),所有领域的舒适度水平中等(40%-47%)。然而,受访者对AI用于疫情追踪和优化医疗保健工作流程表现出相对更高的支持,在这些领域,更多受访者感到"非常舒适"。

图3. 2023年加拿大数字健康调查中加拿大成年人对特定医疗保健领域AI应用的舒适度(n=6904)。AI:人工智能。

表2展示了完全加权有序逻辑回归模型的结果,评估了受访者自我报告的AI知识水平与其社会人口学特征、数字健康素养和健康状况之间的关联。这些结果与未加权和非应答调整模型的结果一致,显示出相似的效应大小和显著性模式(补充多媒体附录1)。

表2. 有序回归结果(完全加权):2023年加拿大数字健康调查中AI知识水平与社会人口学因素、数字健康素养和健康状况的关联

预测因素和类别 OR (95% CI) P
年龄组(参照:16-24岁)
25-34岁 0.69 (0.54-0.87) <.001
35-54岁 0.59 (0.47-0.73) <.001
55-64岁 0.44 (0.35-0.56) <.001
65+岁 0.39 (0.31-0.49) <.001
性别(参照:女性)
男性 1.57 (1.42-1.73) <.001
家庭收入(参照:加元60,000-100,000)
加元>100,000 1.29 (1.14-1.45) <.001
加元<60,000 1.07 (0.94-1.22) .34
公民身份(参照:公民)
非公民 1.71 (1.32-2.21) <.001
种族(参照:亚洲裔)
黑人/非洲裔 1.00 (0.74-1.36) .99
其他 0.93 (0.72-1.20) .56
白人 0.79 (0.68-0.93) <.001
教育(参照:大学水平)
研究生及以上 1.43 (1.27-1.60) <.001
高中 1.03 (0.89-1.20) .70
<高中 0.97 (0.66-1.41) .87
就业(参照:就业)
失业 1.09 (0.95-1.24) .21
数字健康素养 1.08 (1.07-1.09) <.001
慢性病数量 1.08 (1.03-1.12) <.001

年龄是重要的预测因素,与16-24岁受访者相比,年龄较大的受访者报告更高AI知识的可能性较低:25-34岁(比值比[OR] 0.69,95% CI 0.54-0.87;P<.001)、35-54岁(OR 0.59,95% CI 0.47-0.73;P<.001)、55-64岁(OR 0.44,95% CI 0.35-0.56;P<.001)和65+岁(OR 0.39,95% CI 0.31-0.49;P<.001)。男性报告更高AI知识的可能性明显高于女性(OR 1.57,95% CI 1.42-1.73;P<.001)。

在社会经济因素中,年家庭收入较高者(加元>100,000)报告更高AI知识的可能性更高(OR 1.29,95% CI 1.14-1.45;P<.001),而收入较低者(加元<60,000)无显著差异(OR 1.07,95% CI 0.94-1.22;P=.34)。非公民的AI知识水平较高(OR 1.71,95% CI 1.32-2.21;P<.001)与公民相比。种族也是一个重要因素,与亚洲裔受访者相比,白人受访者AI知识的几率较低(OR 0.79,95% CI 0.68-0.93;P<.001),而黑人或非洲裔和其他群体的差异无统计学意义。

教育是另一个关键预测因素,与大学教育水平相比,研究生学历者AI知识显著更高(OR 1.43,95% CI 1.27-1.60;P<.001),而仅高中或以下教育的受访者无显著差异。就业状况与报告更高AI知识的几率无显著关联。

更高的数字健康素养与增加的AI知识密切相关(OR 1.08,95% CI 1.07-1.09;P<.001)。此外,患有更多慢性健康状况的受访者报告更高AI知识的可能性更大(OR 1.08,95% CI 1.03-1.12;P<.001),表明健康经历可能影响对AI应用的认识。

表3展示了完全加权有序逻辑回归模型的结果,每个模型检查了受访者对医疗保健中AI的舒适度水平、在知情同意和未经同意情况下使用个人健康数据的舒适度与包括社会人口学、数字健康素养和健康状况在内的关键因素之间的关联。非应答加权和未加权模型(补充多媒体附录1中的表4-6)得出与完全加权分析相似的结果,支持了研究结果的敏感性和稳健性。

表3. 有序回归结果(完全加权):2023年加拿大数字健康调查中AI舒适度水平、个人健康数据使用与社会人口学因素、数字健康素养和健康状况的关联

预测因素和类别 模型1:医疗保健中AI使用的舒适度 模型2:知情同意下AI使用个人健康数据的舒适度 模型3:未经同意AI使用个人健康数据的舒适度
OR (95% CI) P OR (95% CI)
年龄组(岁)(参照=16-24)
25-34 1.00 (0.80-1.25) .99 0.83 (0.67-1.04)
35-54 0.91 (0.74-1.12) .35 0.72 (0.59-0.89)
55-64 1.02 (0.82-1.28) .84 0.93 (0.74-1.15)
65+ 1.47 (1.17-1.84) <.001 1.22 (0.97-1.54)
性别(参照=女性)
男性 1.50 (1.36-1.65) <.001 1.39 (1.27-1.53)
家庭收入(参照=60,000-100,000)
>100,000 1.21 (1.08-1.37) <.001 1.16 (1.03-1.30)
<60,000 0.87 (0.77-0.99) .03 0.83 (0.74-0.95)
公民身份(参照=公民)
非公民 1.49 (1.18-1.89) <.001 1.20 (0.96-1.49)
种族(参照=亚洲裔)
黑人/非洲裔 0.96 (0.71-1.28) .76 0.78 (0.59-1.02)
其他 0.78 (0.61-1.00) .05 0.77 (0.62-0.97)
白人 0.77 (0.66-0.89) <.001 0.78 (0.68-0.90)
教育(参照=大学水平)
研究生及以上 1.29 (1.15-1.44) <.001 1.25 (1.12-1.40)
高中 0.90 (0.77-1.05) .17 0.89 (0.76-1.03)
<高中 0.88 (0.62-1.23) .44 1.08 (0.76-1.53)
就业状况(参照=就业)
失业 1.01 (0.88-1.14) .94 1.06 (0.93-1.21)
数字健康素养 1.06 (1.05-1.07) <.001 1.05 (1.04-1.06)
慢性病数量 1.04 (1.00-1.08) .04 1.07 (1.03-1.11)

年龄与医疗保健中AI使用的舒适度水平显著相关。在模型1中,65岁以上老年人对医疗保健中AI使用的舒适度高于16-24岁受访者(OR 1.47,95% CI 1.17-1.84;P<.001)。在模型2中,35-54岁受访者(OR 0.72,95% CI 0.59-0.89;P<.001)在知情同意下使用个人健康数据于AI时舒适度较低,而其他年龄组无统计学显著差异。在模型3中,当未经同意使用个人健康数据于AI时,35-54岁(OR 0.73,95% CI 0.60-0.88;P<.001)和55-64岁(OR 0.77,95% CI 0.63-0.95;P=.01)受访者的舒适度进一步下降,表明中年人对同意更为敏感。

性别在所有三个模型中都是一致的预测因素,男性对医疗保健中AI使用的舒适度高于女性(模型1:OR 1.50,95% CI 1.36-1.65;P<.001;模型2:OR 1.39,95% CI 1.27-1.53;P<.001;模型3:OR 1.56,95% CI 1.42-1.71;P<.001),表明男性在无论是否同意的情况下,对个人健康数据用于医疗AI使用时始终报告更高的舒适度。

与年家庭收入在60,000至100,000加元之间相比,年家庭收入较高的受访者(超过100,000加元)对医疗保健中AI使用(OR 1.21,95% CI 1.08-1.37;P<.001)以及在知情同意下使用个人数据(OR 1.16,95% CI 1.03-1.30;P=.01)的舒适度显著更高。此外,低收入受访者(低于60,000加元)在所有三个模型中一致报告较低的舒适度(OR范围0.83-0.87,P<.05),表明财务差异可能影响对医疗AI的态度。

我们还发现加拿大公民身份是三个模型中两个的重要预测因素。非公民对医疗保健中AI使用的舒适度更高(OR 1.49,95% CI 1.18-1.89;P<.001),在未经同意使用个人健康数据时舒适度也更高(OR 1.28,95% CI 1.02-1.61;P=.03),尽管在有同意模型中关联不显著(OR 1.20,95% CI 0.96-1.49;P=.11)。总体而言,这些发现表明非公民可能比公民更积极地看待医疗保健中的AI应用,并且无论是否同意,都可能对个人健康数据用于医疗AI应用表现出更高的舒适度。

与亚洲裔受访者相比,白人受访者在所有模型中的舒适度几率较低(OR范围=0.69-0.78,P<.001)。"其他"种族群体在模型1和模型2中的几率也较低(OR范围=0.77-0.78,P<.05)。对于黑人或非洲裔受访者,在模型3中关联显著(OR 0.71,95% CI 0.54-0.94;P=.02),表明在未经同意使用个人健康数据时舒适度降低。

我们的分析还显示,更高的教育水平与医疗保健中AI使用的舒适度以及在知情同意下使用个人健康数据的舒适度呈正相关。拥有研究生或更高教育水平的受访者舒适度显著更高(模型1:OR 1.29,95% CI 1.15-1.44;P<.001;模型2:OR 1.25,95% CI 1.12-1.40;P<.001)。仅拥有高中或更低教育水平的人与参考组(大学水平教育)相比无显著差异。

数字健康素养在所有三个模型中都表现出强劲且一致的预测作用。数字素养每增加一个单位,舒适度更高的几率增加4%-6%(模型1:OR 1.06,95% CI 1.05-1.07;P<.001;模型2:OR 1.05,95% CI 1.04-1.06;P<.001;模型3:OR 1.04,95% CI 1.03-1.05;P<.001),表明在使用数字健康工具方面更熟练的个体对医疗AI使用更舒适,无论是在一般医疗环境还是涉及个人健康数据的情况下。

慢性健康状况数量在模型1(OR 1.04,95% CI 1.00-1.08;P=.04)和模型2(OR 1.07,95% CI 1.03-1.11;P<.001)中与舒适度正相关,但在模型3中不显著(OR 1.03,95% CI 0.99-1.07;P=.12),表明患有多种慢性病的个体对医疗AI使用更舒适,特别是当个人数据在知情同意下使用时。就业状况在任何三个模型中与AI舒适度均无显著关联。

讨论

主要发现

据我们所知,这是为数不多的几项研究之一,考察了公众对医疗保健中AI使用的看法,特别关注社会人口学、数字健康素养和健康相关因素的影响。总体而言,研究受访者报告了对AI的不同知识水平,相当比例(42.39%)对医疗保健中AI使用表示不适。当个人健康数据在知情同意下用于AI解决方案时,对AI使用感到舒适的个体比例增加(64.69%),而当AI应用在未经明确同意的情况下使用个人去标识化健康数据时,更高比例(52.61%)表示不适。相对更高比例的受访者对AI用于非临床领域(如疫情追踪和改善医疗保健工作流程)表现出更大的舒适度。

我们发现,基于社会人口学、数字素养和健康状况数量,对AI的知识水平和对医疗保健中AI使用的舒适度存在显著差异。我们的结果表明,男性、非公民、高收入受访者和数字健康素养更高的受访者报告对医疗保健中AI使用以及对个人健康数据用于AI的舒适度更高。老年人(65岁以上)对医疗保健中AI使用的舒适度更高,而年轻人(25-34岁)和中年人(35-54岁)对AI使用其个人数据(尤其是未经同意时)的舒适度较低。

与亚洲裔受访者相比,白人和其他种族群体在所有模型中的舒适度显著较低,而黑人或非洲裔受访者仅在个人健康数据未经同意用于AI应用时舒适度明显较低。这一发现表明,黑人受访者舒适度较低并非对AI的普遍不适,而是对非同意数据使用的敏感性提高,从而凸显了透明度和选择加入数据政策对在少数群体中建立信任的重要性。我们的研究还表明,与加拿大公民相比,非公民对医疗保健中AI使用的舒适度更高。亚洲裔和非公民受访者舒适度较高以及黑人受访者舒适度较低的观察结果表明,更广泛的文化或经验因素可能影响对医疗保健中AI的态度。未来需要定性或混合方法研究来探索这些因素。先前研究表明,历史经历、先前技术接触[33]和隐私担忧塑造了对健康技术的信任水平,特别是在少数群体中[34,35]。此外,也有证据表明,共享个人健康数据用于AI使用的意愿强烈取决于收集数据的机构及其预期用途[24]。

虽然数字健康素养提高了对AI使用的舒适度,但我们还发现,当个人健康数据使用获得同意时,患有多种健康状况的个体对AI的接受度更高。患有多种慢性病的个体可能由于其增加的普遍性[36-39]而对各种健康技术和工具(如可穿戴设备)有更大的熟悉度,从而促进对AI在管理复杂状况中潜力的欣赏。

含义

在医疗保健中部署AI解决方案的一个关键挑战是确保公平性和减少算法偏见,这通常源于代表性不足的训练数据集[40-42]。为了构建产生准确、公平和可推广结果的AI模型,它们必须在反映患者人口统计学和健康状况完整范围的大型、多样化和高质量数据集上进行训练[43]。我们的研究结果指出了将明确的患者同意置于开发AI解决方案所有努力核心的重要性。

医疗保健机构和政策制定者必须建立获取患者AI使用同意的标准协议,确保数据收集符合伦理和法律框架(例如,美国的HIPAA[健康保险便携性和责任法案]、加拿大的PIPEDA[个人信息保护和电子文件法]以及欧洲的GDPR[通用数据保护条例])[44,45]。这些政策必须定义患者数据是用于研究、商业开发还是临床决策。它们还必须澄清数据将存储多长时间、谁可以访问以及患者是否有权随时撤销同意[46]。没有明确定义的指南,未经授权的数据使用和泄露风险增加,削弱公众对医疗AI的信心。

即使患者提供同意,也必须实施强有力的隐私保护措施,特别是在数据在多个健康系统之间汇总时。人们对去标识化以及匿名健康数据是否仍可使用高级AI技术重新识别越来越担心[47]。为减轻这些风险,医疗保健机构必须实施隐私保护解决方案,例如联邦学习,其中AI模型在分散的数据源上训练,而无需传输原始患者数据[48,49]。基于区块链的同意管理可以为患者提供跟踪和管理数据访问的安全方式,而严格的数据治理框架对于确保AI开发人员更负责任地使用健康数据至关重要。

本研究表明,对医疗保健中AI的舒适度受社会人口学因素和数字素养的强烈影响。信任AI并了解其工作原理的个体更可能支持AI驱动的医疗保健应用,而有隐私担忧或数字素养较低的个体可能抵制医疗AI使用,特别是当个人健康数据在未经同意的情况下使用时。通过教育计划、透明政策和患者参与策略解决这些担忧可以帮助建立公众对医疗AI解决方案的信心。

我们的研究还表明,当个人健康数据在未经明确同意的情况下使用时,受访者对AI使用的舒适度显著降低。这突显了一个关键的伦理困境——即使去标识化,如果在没有监督或患者参与的情况下使用,患者数据仍然存在风险。未来的研究和政策讨论应探讨患者应对去标识化数据拥有多少控制权、AI开发人员必须向患者提供什么级别的透明度,以及如何评估基于患者数据训练的AI模型的公平性和问责制。算法偏见,如在某些种族群体(尤其是非裔美国人)中观察到的较低舒适度(尤其是在缺乏同意的情况下),如果AI模型在代表性不足的数据集上训练,可能会加剧医疗保健差异[41]。通过多样化数据集包含和持续性能监控来缓解算法偏见可以帮助减少差异[50,51]。临床决策中的问责制对于确保AI支持而非覆盖临床医生判断至关重要,而优先考虑患者在数据使用中的自主权可以增强信任[52,53]。这些伦理挑战凸显了将AI部署与患者期望和公平结果保持一致的必要性。

要构建值得信赖的AI赋能医疗保健解决方案,政策制定者和医疗管理员需要设计有针对性的公众意识活动,与患者倡导者共同开发,清楚地解释AI的临床作用及其如何使用患者数据[54]。此外,实施选择加入同意政策[55,56]可以帮助缓解患者对数据滥用的担忧。文化定制的数字素养计划也可以帮助提高患者对医疗AI使用的信心。除了患者参与外,对所有临床AI工具进行标准化偏见审计[52],以及在部署前建立患者审查委员会或咨询委员会以收集患者反馈和评估伦理影响,可能会有效[57]。

局限性

本研究有几个重要局限性。首先,横断面设计仅在单一时点捕捉公众态度。该调查于2023年底在加拿大进行,当时新一代AI技术仍在出现。随着AI技术进步和公众意识的发展,态度可能会变化,因此需要纵向研究。其次,数据的自我报告性质可能引入偏差。受访者可能由于社会期望而误估自己的AI知识和舒适度水平。此外,自我报告的数字素养可能无法准确反映在数字健康技术方面的实际熟练程度。第三,该研究探讨了受访者对AI的态度,但未评估他们是否曾接触过任何AI医疗工具(如聊天机器人等)。第四,尽管我们的样本量相当大,但它可能不能代表总体人群,限制了结果的普遍性。特别是,我们的样本中非公民(4.68%)和黑人或非洲裔受访者(3.66%)的比例相对较小,这降低了这些亚组的统计功效。因此,亚组发现应谨慎解释。第五,我们将慢性健康状况操作化为复合计数是一个测量局限性。基于其性质和严重程度的不同健康状况可能会影响技术水平和参与度的不同水平。未来研究可以探讨特定健康状况及其性质和严重程度如何影响对AI的态度。我们还承认可能存在无应答偏差,因为3226多例由于AI相关问题缺失答案而被排除。分析样本大小的这种减少可能排除了对AI持有系统性不同态度的个体。尽管使用了加权调整来纠正这一点,但可能仍存在一些偏差,因为加权无法考虑未观察到的因素。例如,系统性避免回答AI相关问题的受访者可能持有强烈但未测量的态度,如对AI的焦虑或不信任,这可能会使我们的分析样本产生偏差。最后,虽然本研究考察了广泛的社会人口学和健康因素,但它没有深入探讨AI信任的更具体决定因素,如伦理关切、数据安全担忧或健康技术使用经验。未来研究可以更详细地探讨这些因素,以更好地理解患者接受医疗AI的具体原因。通过定性或混合方法研究进行额外调查可以揭示塑造患者对医疗AI使用态度的具体细微差别。

结论

总之,本研究记录了公众对医疗保健中AI使用的知识水平和舒适度处于中等水平。此外,它还强调了社会人口学特征、数字素养和健康状况如何与公众对医疗保健中AI使用的知识和舒适度相关联。我们的研究结果表明,围绕医疗保健中AI使用的舒适度存在显著的社会经济差异,同时对未经患者同意的AI使用仍存在担忧。这些发现强调了透明政策、患者教育和伦理数据治理对提高公众对AI驱动医疗保健信任的重要性。

作者贡献

RC和EM设计并概念化了研究。LT对调查数据进行了预处理,LT和RC进行了数据分析。RC和EM撰写了手稿。所有作者均可完全访问数据,并对提交出版的手稿负最终责任。

缩写词

AI:人工智能

CDHS:加拿大数字健康调查

GDPR:通用数据保护条例

HIPAA:健康保险便携性和责任法案

IPW:逆概率权重

OR:比值比

PIPEDA:个人信息保护和电子文件法

【全文结束】

猜你喜欢
  • 住院环境中的过度诊断:金发姑娘原则的启示住院环境中的过度诊断:金发姑娘原则的启示
  • 癌症药物试验:医生和医院的摇钱树癌症药物试验:医生和医院的摇钱树
  • 心血管代谢健康与身体强健度映射到大脑结构和神经递质系统的不同模式心血管代谢健康与身体强健度映射到大脑结构和神经递质系统的不同模式
  • 人工智能在药物发现市场2026年推动精准医学发展人工智能在药物发现市场2026年推动精准医学发展
  • 数字时代的糖尿病护理:解决老年人远程医疗障碍数字时代的糖尿病护理:解决老年人远程医疗障碍
  • 心房颤动患者社会健康决定因素与不良心血管结局关联中的性别差异心房颤动患者社会健康决定因素与不良心血管结局关联中的性别差异
  • 生成式人工智能应对医疗保健最大负担生成式人工智能应对医疗保健最大负担
  • 孟加拉国医生睡眠问题及相关风险因素:观察性横断面研究的系统评价与荟萃分析方案孟加拉国医生睡眠问题及相关风险因素:观察性横断面研究的系统评价与荟萃分析方案
  • 驾驭医疗健康领域人工智能的未来:创新与影响驾驭医疗健康领域人工智能的未来:创新与影响
  • 走出阴影:制药技术开发的光明未来走出阴影:制药技术开发的光明未来
热点资讯
    全站热点
      全站热文