国内健康环球医讯家医百科药品库医药资讯

AI正在革新医疗保健 但它无法取代你的医生

AI Is Revolutionizing Health Care. But It Can’t Replace Your Doctor | TIME

美国英语科技与健康
新闻源:unknown
2025-09-13 00:55:47阅读时长4分钟1931字
医疗保健AI医生精准医疗健康数据临床试验并发症误诊技能退化智能决策架构人类与AI协作

内容摘要

本文深入探讨人工智能在医疗领域的革命性影响,分析AI在提升诊断效率和精准医疗的同时,也存在误诊风险和技能退化隐患。通过杜克大学和印度Apollo医院的案例,揭示医疗AI需遵循"智能决策架构"设计原则,既要增强医生专业判断,又不能削弱临床技能,最终实现人机协同的医疗未来。

下一次当你进行血液检测、X光检查、乳腺钼靶或结肠镜检查时,很可能在医生查看结果之前,人工智能(AI)算法就会率先解读检测结果。

短短几年间,AI已迅速渗透全球医院和诊所。美国食品药品监督管理局(FDA)已授权使用超过1000种医疗相关AI工具,根据美国医学协会近期调查,超过三分之二的医生在不同程度上使用AI。这种潜力是革命性的:特别是具备推理、适应和自主行动能力的AI智能体,可以通过撰写患者记录和图表摘要减轻医生工作负担,通过更精准的治疗方案支持精准医疗,并检测影像和切片中人眼可能遗漏的细微异常。它能通过诸如AI驱动的蛋白质结构预测和设计等新流程加速药物和靶点发现,这项技术曾获得去年诺贝尔化学奖。AI还能通过预约安排、问题解答和不良反应监测,为患者提供更快捷、个性化的支持,帮助临床试验匹配受试者并实时监测健康数据,及早预警并发症以改善治疗结果。

但医疗AI的承诺只有在负责任地开发和使用的情况下才能实现。

当前的AI算法是强大的模式识别、预测甚至决策工具。但它们并非完美无缺的全知先知,也不像某些通用人工智能倡导者声称的那样即将匹敌人类智能。近期几项研究既展现了可能性也揭示了陷阱:医疗AI工具可能误诊患者,医生自身技能也可能因过度依赖AI而衰退。

杜克大学(其中一位作者所属)团队测试了一款经FDA批准的AI工具,该工具用于检测阿尔茨海默症患者脑部MRI中的肿胀和微出血。该工具确实提升了专家放射科医生发现MRI细微异常的能力,但也频繁产生误报,常将无害模糊误判为危险征兆。我们得出结论:该工具是有用辅助,但放射科医生应先仔细阅读MRI影像,再将工具作为第二意见使用——而非相反。

这类发现并非我们研究的个案。目前很少有医院独立评估使用的AI工具,许多机构误以为只要获得FDA批准就能在本地场景有效应用。实际上,AI工具对不同患者群体效果各异且各有弱点。因此医疗机构在实施任何AI工具前都必须进行尽职审查和质量检查,确保其适应本地环境并对临床医生进行相应培训。此外,AI算法本身及其与人类互动方式会随时间演变,促使前FDA专员罗伯特·卡利夫呼吁对医疗AI工具进行持续上市后监测,确保其在现实世界中保持可靠和安全。

另一项近期欧洲胃肠病学家的研究中,医生使用AI辅助系统进行结肠镜检查时,初始发现更多息肉(可能癌变的微小增生)表明AI帮助发现了遗漏区域。但当医生回归无AI辅助的检查时,检测出的癌前息肉反而减少。研究者认为这可能是因为医生过度依赖AI导致注意力下降和识别能力减弱。这种"技能退化"现象在另一项研究中得到印证:过度依赖计算机辅助可能使人眼更少扫描周边视觉区域。旨在提升医疗实践的工具反而可能钝化了这种能力。

若使用不当,AI不仅会传播错误信息,还会削弱我们的事实核查能力。这就像"谷歌地图效应":曾经靠记忆导航的司机因习惯盲从车载语音指令,反而丧失了基本地理认知。今年早些时候一项覆盖多个年龄层和教育背景的600多人调查显示,使用AI工具越多的人,批判性思维能力越弱。这种"认知卸载"现象,我们才刚开始理解其与临床医生AI使用的关系。

所有这些都表明,就像其他领域一样,医疗AI的最佳应用是增强而非取代人类工作。医疗的未来不在于用算法替代医护人员,而在于设计能强化人类判断、放大成就的工具。医生必须能够判断AI何时出错,必要时保持无AI工具工作的能力。实现这一点的关键是负责任地构建医疗AI工具。

我们需要基于不同范式的工具——能提示医护人员二次审视、权衡替代方案并保持主动参与的工具。这种"智能决策架构"(ICA)设计中,AI系统旨在支持而非替代判断。例如传统AI可能直接宣布"此处有出血",ICA工具则会高亮特定区域提示"请仔细检查该区域"。这种架构能增强医学依赖的技能:临床推理、批判性思维和人类判断。

印度最大私立医疗系统Apollo Hospitals最近开始使用ICA工具指导医生预防心脏病发作。相比此前仅提供单一风险评分的AI工具,新系统能为患者提供个性化解读,说明评分构成因素,使患者明确需要应对的风险因素。这正是既能帮助医生履职又不剥夺其自主权的温和引导范例。

有种过度宣传AI能解答所有问题的倾向,但在医疗领域我们必须克制这种期待来挽救生命。我们需要训练医学生既能使用又能不依赖AI工具,应将其视为第二意见或助理而非全能专家。医疗的未来是人类与AI智能体的协作。

我们以前也向医学引入过工具而未削弱医护人员技能。听诊器放大了耳朵的功能但未取而代之,血液检测提供了新的诊断信息却不取消病史询问和体格检查。我们应以同样标准审视AI。若某产品使医生变得不够谨慎或犹豫不决,就尚未成熟或使用方式错误。

对于任何新的医疗AI,我们应当追问:它使临床医生更审慎还是更草率?它鼓励二次检查还是流于形式?若我们承诺只设计增强而非替代人类能力的系统,就能兼得AI的非凡潜力与人类独有的批判思维、同理心和现实判断。

【全文结束】

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜