执行摘要
医疗保健是人工智能(AI)如何变革世界的一个有力例证。AI驱动的护理具有显著前景,涵盖优化预约调度、简化操作流程、辅助诊断、定制治疗方案及个性化护理等多个方面。然而,这种前景伴随着患者、消费者和医疗专业人员对AI本质、潜在益处与风险以及伴随使用增长而持续涌现的伦理问题的困惑。我们的研究表明,建立信任需要医疗系统向患者、社区以及员工和附属人员清晰阐释AI定义——及其使用AI的愿景。本nSight报告重点强调五个关键发现:
- 近75%的医疗保健消费者对AI在医疗领域的应用缺乏清晰认知。
- AI在医疗保健中存在多种用途,必须审慎明确地评估每种应用对患者和护理团队的双重影响。
- 尽管公众对AI持合理谨慎态度,但报告熟悉AI的群体更倾向于表达对AI应用的希望、兴奋与信心。
- 对于报告熟悉AI的消费者,其对AI用于各类临床功能的信任度明显更高——但即便如此,他们仍更信任纯医生诊疗而非医生使用AI的模式。
- 对护理提供者的信任与对AI的信任将日益交织,相关教育必须全面涵盖AI前景、潜在陷阱及应对机制。
什么是人工智能?
AI对不同群体含义各异。询问10位AI专家对AI的定义,可能获得独特但重叠的答案;询问10位非专家,可能得到多数茫然回应。若向ChatGPT提问医疗保健中的AI,其回答为:
医疗保健中的人工智能(AI)指运用先进技术,特别是机器学习算法及其他计算技术,分析复杂医疗数据、辅助临床决策并提升整体医疗服务水平。
医疗保健中AI的熟悉度
2023年7月1日至9月30日期间,我们在全国市场洞察研究中调查了38,331名近一年内有就医经历人群对AI的熟悉程度。仅约1/4受访者表示了解AI在医疗中的应用。鉴于AI发展迅猛,不宜假设医疗从业人员的认知比例显著更高。
男性(32%)比女性(23%)更可能回答"熟悉";"不熟悉"组比例则相反,两性在"完全不了解"选项上差异不大。年龄方面,25-44岁人群约1/3表示熟悉,18-24岁及45-54岁人群约1/4表示熟悉,55岁以上人群比例骤降。报告后续将引用"熟悉"、"不熟悉"及"完全不了解"三组数据。
显然,多数人对AI认知有限。本质上,AI指利用机器执行通常需人类智能完成的任务。但需超越此广义定义,深入理解AI的核心功能:
- 机器学习——计算机程序通过数据学习并提升任务性能,无需额外编程
- 图像分析与模式识别——计算机处理并解析图像、视频等视觉数据
- 自然语言处理(NLP)——计算机解读、理解、分析及生成人类语言
AI可赋能多元医疗任务
阐明AI功能是基础,但需具体案例才能展现其如何变革护理体验与服务。以下详述三个典型应用场景,关联对应功能并总结对患者与医护人员的影响。
预约调度优化
当AI集成至组织流程(如预约、记录、计费)时,可提升效率、降低成本并改善患者体验。AI调度系统尤为典型,既能扩大就医可及性,又能优化患者流、提高临床效率并缩短等待时间。
医护团队影响:基于机器学习的需求预测可利用历史预约数据预判未来使用趋势。结合智能调度算法,系统能依据预约类型、医生排班及患者需求等变量生成优化时段。AI自适应调度系统还能在突发取消时实时调整排期,确保时段高效利用。
患者影响:集成NLP与机器学习的自动化聊天机器人可作为交互式虚拟助手,协助患者完成预约、改期或取消操作,并提供诊所营业时间、位置等详情。自动化提醒系统可降低失约率,机器学习模型更能根据患者行为偏好(如邮件或短信响应差异)提供个性化服务体验。
医学影像诊断协作
医生与AI系统合作分析医学影像已成常态,显著提升诊断准确率。图像识别算法完美诠释了AI处理能力与医生临床经验的协同价值——通过结合AI的数据处理优势与医生的患者背景理解及创造性问题解决能力,可减少误差并改善诊疗结果。
医护团队影响:2008-2018年间,AI+医学影像相关年度论文增长十倍。亚马逊、英伟达及谷歌等科技巨头现已推出专用于皮肤科、眼科及放射科的AI系统。谷歌DeepMind与英国莫菲尔兹眼科医院(Moorfields Eye Hospital)的合作是典型案例:
- 模型训练:神经网络基于近7,500名患者的15,000份眼科扫描数据训练眼部疾病识别能力
- 模型测试:与8名医生诊断对比,AI准确率达94.5%——媲美部分视网膜专家且优于其他专家
- 新数据输入:新扫描数据实时输入模型,生成疾病检测、严重程度及进展报告
- 图像分析:医生审核输出结果,筛选高风险病例及错误分析
- 警报与分诊:系统非独立诊断工具,而是与专家协作生成预警并分级处理病例
- 协同诊断:结合AI输出与医生临床经验确定最终诊断及治疗方案
患者影响:人工图像分析费时费力且易出错,单日医院可产生数百至数千份扫描。机器处理能力惊人,且AI无轮班限制、无需休息或分心。当AI能高效完成医生耗时的诊断任务时,医患协作模式使医护人员得以专注于解释诊断、讨论方案及个性化护理等核心工作。
增强现实创新应用
AI驱动的增强现实(AR)技术正引领患者护理创新前沿。多项AR+AI项目正应用于手术操作、医学培训及患者教育可视化等领域。微软HoloLens 2是革新个性化医疗的典范。
医护团队影响:HoloLens 2作为混合现实系统,在医疗场景中与AI结合后实现突破。西雅图普罗维登斯瑞典医疗中心(Providence Swedish)神经外科医生采用Medivis AI引导系统配合HoloLens 2进行术前规划。该技术通过整合患者X光、PET扫描等影像数据,将其叠加至患者身体,创建实时术中导航系统,显著降低手术错误率及并发症风险。
患者影响:AI增强现实系统的价值远超误差控制。研究证实,相比传统模型,混合现实工具能显著提升患者理解度并降低焦虑。此类技术可有效增强患者教育——通过交互式病情解释帮助理解复杂医疗程序,并促进医患协作制定治疗方案。
熟悉度决定信任度
当前应用突破令人振奋,但对AI的接纳程度直接取决于认知深度。数据显示,了解AI医疗应用的群体更倾向视其为"关键工具"或"行业变革者",而认知不足者即便有观点也多视AI为"危险因素"。
AI是行业变革者吗?
所有群体均对AI持谨慎态度,但认知不足者尤为警惕且常报告"恐惧"情绪。各群体对AI在预约调度、答疑等基础应用接受度最高,这恰是两大关键场景。尽管高熟悉度群体对其他应用态度更积极,但整体而言,提升公众对AI全面价值的认知仍需大量工作。
信任悖论:医生与AI协作模式
在临床任务场景中,熟悉AI的群体对"医生+AI"及纯AI的信任度均更高。但关键发现是:即便熟悉AI者仍更信任纯医生诊疗而非医生使用AI的模式——当涉及诊断及治疗决策(不仅是图像解读)时,此趋势更为显著。大量研究已证实AI在临床与非临床任务中的价值,亟需弥合公众认知与实际成效间的差距。
潜在风险警示
研究中多数人对AI持谨慎态度,无论其认知程度如何。健康质疑合理,因医疗AI应用存在三大关键风险:
透明度缺失:AI系统依赖海量数据处理,包括医疗记录、受保护健康信息(PHI)及诊断影像等。例如,训练图像识别模型常需数万份扫描数据。构建大型数据集耗时昂贵,故维护与共享现有数据集成为常态,但这也带来敏感信息去标识化与长期安全存储的挑战。更关键的是,患者往往不知晓——或未明确授权——其数据如何用于AI开发。随着AI普及,医疗机构必须通过透明沟通阐明伦理实践承诺,明确告知患者数据使用目的及方式。
算法偏见:数据、算法、输出及解读中的显性与隐性偏见是AI伦理的核心隐忧。警示案例屡见不鲜:研究者基于偏见数据集开发AI模型,反致偏见被放大。2019年《科学》期刊论文揭示,美国医院广泛使用的商业算法对黑人患者存在系统性偏见——开发者以医疗成本替代实际需求建模,因不同族裔就医机会不均等(黑人患者人均支出较低),导致算法将病情更重的黑人患者误判为健康状态,严重削减其必要医疗服务。
聊天机器人幻觉:ChatGPT等生成式AI基于大数据预测词序,但缺乏推理能力且无视事实矛盾。未来学家伯纳德·马尔定义"AI幻觉"为"产生看似合理实则错误或无关的输出,源于模型固有偏见、现实理解缺失或训练数据局限"。医疗领域对错误零容忍且信息误传风险极高,此问题尤为严峻。
核心结论
医疗AI应用尚处起步阶段——ChatGPT面世仅一年——新技术前景可期,但必须对其应用保持透明、对其能力保持审慎。AI可优化护理流程,但无法真正"关怀"患者。我们应超越"AI取代医护人员"的伪命题(事实是不会取代),聚焦AI如何通过处理常规任务提升医护人员效能,使其有更多时间提供人性化服务。关键在于:我们掌握主动权——决定AI在哪些环节、以何种方式及程度简化流程、改善就医可及性、加速精准诊断并定制治疗方案。领先医疗机构已先行布局,但所有机构均应立即向内外部受众普及AI知识及其应用愿景。行动刻不容缓。
【全文结束】

