当医疗AI试图分析患者病情时会发生什么?谷歌2024年发布的医疗AI模型Med-Gemini给出了令人震惊的答案——它自信地诊断某患者患有"旧左基底动脉神经节梗死"。这里的"basilar ganglia"(基底动脉神经节)听起来像是专业术语,但实际并不存在。这个大脑区域完全由AI捏造,其错误源于将真实的"basal ganglia"(基底神经节,控制运动与情感的重要区域)与"basilar artery"(基底动脉,脑干主要供血动脉)混淆,最终制造出一个通过审核并发表在医学期刊上的虚假病症。
神经科医生布莱恩·摩尔博士在LinkedIn上率先指出这一错误。据The Verge报道,谷歌随后悄悄修正了博文,但原始论文仍未更正。谷歌将此归咎于"拼写错误",但众多专家认为这种解释并不充分。在医疗领域,术语准确性关乎生命安全,当AI开始杜撰专业术语时,可能引发误解、误诊甚至医疗事故。健康专家警告这种行为极具危险性,即便只是两个字母的拼写错误,也可能导致严重后果。
作为下一代医疗专用模型,Med-Gemini基于Gemini大模型,通过微调处理非识别医疗数据,继承了其推理、多模态和长上下文处理能力。但其姊妹模型MedGemma也存在类似问题:同一X光片在不同提问方式下会给出矛盾诊断,有时能准确识别病症,有时却完全遗漏。
专家指出这些AI技术虽具潜力,但过度自信才是真正的威胁。当医生盲目相信AI诊断时,类似错误可能直接危及患者生命。值得关注的是,该论文的50多位作者中竟无一人发现这个基础解剖学错误,暴露出AI医疗应用的伦理与审核机制存在重大缺陷。
【全文结束】

