医疗AI模型的隐患浮现
谷歌研发的医疗AI模型Med-Gemini近期被曝出严重技术漏洞。这款基于Gemini模型开发的医疗专用AI系统,本应通过分析医学影像诊断多种疾病,却在演示中识别出"左侧旧基底动脉神经节梗塞"——其中"基底动脉神经节(basilar ganglia)"是人体根本不存在的解剖结构。
神经病学专家布莱恩·摩尔(Bryan Moore)指出这一致命错误,该问题源于AI系统混淆了两个关键医学概念:负责运动控制的"基底神经节(basal ganglia)"和位于脑干的"基底动脉(basilar artery)"。虽然谷歌事后在其博客文章中修正了术语,但核心研究论文至今仍保留错误表述。
两个字母引发的医学灾难
普罗维登斯医疗集团首席医疗信息官毛林·沙(Maulin Shah)严厉批评:"两个字母的拼写错误在医学领域就是生死之差"。谷歌官方回应称该错误系AI从训练数据中习得的"常见拼写变体",但这一辩解并未消除医疗界担忧。
更令人不安的是,该错误持续存在近一年未被发现。这暴露了AI医疗系统的两大致命缺陷:其一,深度学习算法存在"知识幻觉"特性,会无中生有创造看似合理实则错误的信息;其二,当前缺乏有效的实时纠错机制,即使发现错误也难以快速修正所有应用场景中的错误数据。
医疗AI系统的连环危机
这不是谷歌医疗AI的首次事故。更先进的MedGemma模型同样暴露出"语境依赖"的致命缺陷——对同一问题的不同表述会产生矛盾结论。埃默里大学放射学专家朱迪·基乔亚(Judy Gichoya)警告:"这类系统本质上会虚构答案,且不会承认知识盲区,这在医疗领域可能直接危及生命"。
当前医疗AI应用正在加速扩展,包括AI心理治疗师、放射科医生、护理助手和病历转录系统等。但这项技术暴露的风险提示:在药物研发、疾病诊断等关键环节,人类医生必须保持终极决策权。正如毛林·沙强调:"AI的容错率必须远超人类标准,我们绝不能接受'与人类相当'的医疗AI"。
【全文结束】

