引言
人工智能(AI)正在以影响患者、临床医生和医疗机构的方式重塑医疗保健。本文定义的"健康人工智能"(Health AI)包括医疗机构部署的数字工具(如生成式AI、环境记录员、机器学习)以及患者及其护理伙伴独立使用的工具(通常是生成式AI)。在机构环境中,AI通常被部署用于标准化临床工作流程、强制合规、管理运营风险、实现财务目标以及从大数据中提取价值(Allen等,2024;Goh等,2025;Gonzalez-Smith等,2022)。对临床医生而言,AI被视为减少行政负担和提高诊断准确性的方法。在医疗机构内,所有员工都必须使用机构批准的数字解决方案,这可能会限制临床医生的判断空间,同时使实践与组织优先事项保持一致。
相比之下,面向患者的AI提供了不受机构政策约束的个人自主权和能动性的新机会。虽然患者可能面临获取渠道、有限的数字素养和不完整的健康数据访问等障碍,但这些工具为好奇和实验留下了空间,使他们能够提出非传统问题并追求机构可能不鼓励或忽视的研究方向,这种转变被一些人描述为"AI患者"的兴起(Blumenthal和Goldberg,2025;Woods等,2025)。本评论探讨了AI如何从合规工具演变为患者能动性、反思和解放的工具,展示了战略性使用如何提高患者推理能力,加深对机构优先事项的批判性参与,并支持患者影响塑造护理的系统,重新掌控自己的健康叙事。
批判性AI健康素养的需求
在实践中,大多数健康AI系统服务于机构优先事项。临床医生使用受运营和合规要求影响的工具,保险公司部署标记索赔以拒绝的算法,医院实施分诊模型,这些模型可能通过有偏见的训练数据使边缘化患者处于不利地位(Obermeyer等,2019;Robeznieks,2021;Kelley,2025)。这些应用对患者来说在很大程度上是不透明的,但却直接影响他们的护理。
面向患者的AI可能提供一条将控制权转向个人的替代路径。通过这种方式,患者可以选择自己的工具,交叉验证建议,并探索机构系统可能忽视的视角。"患者AI权利倡议"(Patient AI Rights Initiative),一个由患者倡导者领导的AI治理框架,强调了患者必须掌握并倡导的七个基本权利,以挑战健康AI中的机构优先事项,包括透明度、自我决定权和对患者的独立责任(Cordovano等,2024)。
然而,这些机会也伴随着重大风险。生成式AI可能会产生幻觉或嵌入系统性偏见。商业平台缺乏HIPAA保护,输入的任何数据都可能通过法律发现被存储或披露。如果没有批判性技能,患者可能会不加批判地接受AI输出,将AI自信的表述误认为客观真理。
批判性AI健康素养通过培养作者称之为"算法抵抗"(algorithmic resistance)的能力来应对这些风险:即刻意且明智地使用AI来挑战与患者价值观相冲突的机构优先事项。在Abel和Benkert对批判性健康素养的定义基础上——"反思健康决定因素和过程的能力,并将反思结果应用于特定情境下的个人或集体健康行动",这种方法将AI定位为不是专家判断的替代品,而是发展专业知识的催化剂(Abel和Benkert,2022)。新兴证据表明,患者通常无法区分AI生成的建议和医生生成的建议,并可能信任不准确的AI输出(Shekar等,2025;Karinshak等,2023)。这就是为什么AI的真正希望不在于提供明确答案,而在于提高患者质疑这些答案的能力。
AI健康素养常常被狭隘地理解为创建有效提示的能力。虽然提示技能很有用,但它们仅代表操作生成式AI所需的最低限度。相比之下,批判性AI健康素养更进一步:它使患者和护理伙伴能够质询AI背后的系统,识别偏见和机构对齐,并抵制那些将组织利益置于患者价值之上的输出。
作者将批判性AI健康素养定义为战略性使用AI工具来分析健康决定因素和权力结构、评估AI输出的偏见和机构对齐,并通过算法抵抗优先考虑机构优先事项而非患者价值的系统,采取明智行动以推进个人和集体健康目标的能力。
为何批判性AI健康素养在此时至关重要
培养批判性AI健康素养需要具备评估AI输出的偏见和准确性的能力、跨多个来源交叉验证信息、理解塑造AI部署的政治和经济力量,以及将AI用作"思想伙伴"而非"神谕"。这些技能将AI从过去十年的"谷歌医生"转变为未来战略倡导的工具(Obermeyer等,2019;Pascoe等,2024)。
患者已经在培养这些技能,并通过分享提示策略和解释方法来促进协作学习,从而加深理解并改善医疗保健导航。当患者被赋予权力有意义地参与时,这些实践与改善的健康结果、更高质量和更安全的护理相关联(Greene等,2015)。患者战略性使用AI的例子包括:在保留循证意义的同时翻译复杂的临床术语、汇编分散的医疗记录以加速症状分析、生成成功的保险申诉信,以及创建可共享的健康摘要,改善罕见病儿童的协调护理(Salmi等,2025;DeBronkart,2024)。这些实践突显了AI作为患者赋权工具的作用,这在医疗系统之外很少被认可(Sundar,2025)。
AI赋能的实践:批判性AI健康素养的框架
巴西教育理论家保罗·弗莱雷(Paulo Freire)将"实践"(praxis)描述为一个批判性反思、随后是战略行动的循环,通过变革性变化实现解放(Freire等,2018)。应用于健康AI,实践不仅邀请患者理解塑造其护理的系统,还利用这种理解来主张能动性并创造变革。这不仅仅是获取健康信息,而是批判信息存在的社会、机构和政治背景,然后采取有目的的步骤采取行动。这些步骤包括批判性反思和战略行动,最终通过能动性实现解放(见图1)。
图1 | AI赋能的批判性健康素养:弗莱雷实践循环
来源:作者创建
批判性反思: 批判性反思包括分析自己的健康状况、质询机构实践,以及揭示患者、临床医生、医疗保健系统和塑造其护理的技术之间互动中的权力动态。AI加速了这一过程,帮助患者探索治疗选项、比较临床指南、审查医学文献,并检测可能被隐藏的碎片化健康数据中的模式(见方框1)。
方框1 | 案例研究:传达新的临床指南本案例展示了AI如何帮助弥合临床医生认知与患者需求之间的差距。LS于2019年被诊断为不安腿综合征(RLS),开始使用罗匹尼罗(ropinirole)治疗,这是一种常用于RLS的多巴胺能药物。起初,药物缓解了她的症状,但到2024年,她经历了"增强"(augmentation),这是一种讽刺性地由药物本身引起的症状恶化。随着生活质量下降,LS进入了批判性反思的循环,质疑为什么她的症状在加剧以及是否存在更好的治疗方法。
LS转向Reddit上的RLS社区,了解到梅奥诊所(Mayo Clinic)2021年更新的指南不再推荐将多巴胺激动剂作为RLS的一线治疗(Silber等,2021)。她发现了一个脱节:她的初级保健提供者(不是睡眠医学专家)不知道新指南和建议。LS下载了更新的指南和引用的研究,并寻求访问付费墙后的出版物。为了提炼信息,她使用GPT-4o(OpenAI,加利福尼亚州旧金山)生成了一份一页的摘要,忙碌的医生可以轻松浏览。
在战略行动的时刻,LS通过患者门户将AI生成的摘要发给她的初级保健提供者,并注明"不需要回复"。就诊时,LS发现医生已打印阅读摘要、审查指南,并同意逐渐减少多巴胺激动剂的使用并开始替代治疗。两个月后,LS报告睡眠改善,症状减轻。
这个故事展示了通过AI赋能的实践实现解放:一位患者不仅使用AI进行信息检索,还用来质询临床规范并展示能动性。LS使用AI与医生合作,实现了弗莱雷通过反思性、战略性和变革性行动实现解放的愿景。
来源:作者创建;基于第二作者的经验
战略行动: 战略行动随后将这些获得的见解应用于影响决策和有效倡导。患者可能会制定有针对性的问题,准备有说服力的保险申诉,并将医学研究整合到为其护理团队准备的摘要中(见方框2)。
通过能动性实现解放: 最后一步,通过能动性实现解放,发生在患者超越使用AI进行表面层次的查询(如确认现有信息),而是参与持续的反思和行动循环时。在这种更深层次的模式中,AI成为一种导航——并在必要时抵抗——机构优先事项的手段,同时扎根于个人和社区定义的价值观。目标不是拒绝专业判断,而是通过成为自己健康叙事的积极共同作者,从无权状态中解脱出来。用弗莱雷的话说,这就是解放(Torre等,2017)。
方框2 | 案例研究:使用多种AI系统管理护理本案例展示了如何使用AI挑战机构决策并保护患者偏好。2025年,患有肥厚性心肌病的HC面临与其医疗系统关于植入式心脏复律除颤器更换的争议。他之前使用的设备都是美敦力(Medtronic)的,提供了18年的安全结果,包括无休克治疗、标签内MRI兼容性和可靠的远程监测。尽管有这一历史,新的供应商合同将覆盖范围限制在波士顿科学(Boston Scientific)和百多力(Biotronik)的设备上,没有临床证据证明这种改变是合理的。
这一政策在临床上支持的患者偏好与机构采购优先事项之间产生了直接冲突。HC拒绝接受由合同协议驱动的设备更改,转而使用生成式AI工具,包括GPT-4o(OpenAI,加利福尼亚州旧金山)、Claude Sonnet(Anthropic,加利福尼亚州旧金山)、Gemini 2.5 Pro和NotebookLM(Google LLC,加利福尼亚州山景城),来构建基于证据的申诉。AI协助起草和修改申诉信,识别设备平台之间具有临床意义的差异,评估成本效益,并框定失去可信远程监测能力相关的风险。它还支持仔细选择能加强案例说服力的语言。通过迭代使用,HC将其申诉转变为对以系统为中心的决策的有充分文档支持的挑战。
这个例子说明了批判性AI健康素养如何使患者从被动接受机构决定转向基于证据和个人价值的知情、战略倡导。使用AI,HC通过将对临床和机构动态的反思与深思熟虑、有针对性的行动相结合,将护理决策重塑为更个性化和以患者为中心的结果。
来源:作者创建;基于第一作者的经验
AI的局限性
虽然批判性AI健康素养有望扩大患者能动性,但它面临着重大局限性。AI工具的获取并不公平。许多患者由于数字素养有限、财务限制或互联网连接不足而面临障碍。如果不解决这些差异,AI可能会扩大现有医疗保健获取和结果方面的差距。隐私也是一个重要的公共关切。商业AI工具不符合HIPAA(健康保险流通与责任法案)标准,输入的任何数据都可能以用户不透明的方式存储、分析或共享,可能通过法律发现、营销分析或其他不可预见的渠道稍后浮出水面(Downing和Perakslis,2022)。另一个风险在于过度信任AI输出。生成式AI以有说服力的方式呈现信息,即使其中包含不准确或嵌入的偏见。患者可能将流畅性误认为准确性,并根据误导性或不完整的建议采取行动(Hart,2025;Dober,2025;Draelos等,2025)。最后,虽然AI可以帮助个人,但医疗保健中的结构性不平等不能仅通过个人赋权来解决。公平需要协调的系统性改革与患者技能培养相结合。
关键要点
当患者采用批判性AI健康素养时,他们从组织AI的消费者转变为算法抵抗的积极主体。这解锁了参与和控制健康叙事的新形式,改变了长期存在的权力结构,并开启了更公平、以患者为中心的决策可能性。患者社区可以通过共同设计反映共同需求、价值观和伦理的AI工具,以及倡导服务于正义和效率的技术,发挥重要作用。AI赋能的实践框架提供了一种通过批判性AI健康素养理解患者能动性价值的方式。真正的赋权不在于信任AI提供正确答案,而在于学会与AI一起思考并超越它,当AI输出未能服务患者时,质疑、塑造和挑战这些输出。在这个愿景中,AI不仅仅是监督、效率或自动化的工具;它成为一种解放技术。
【全文结束】

