事件背景
谷歌最新医疗AI系统Med-Gemini在医学扫描诊断中意外出现重大错误,误将不存在的"基底神经节(basilar ganglia)"标记为异常。这项错误最早出现在今年初谷歌发布的研究论文及博客中,直到神经学家布莱恩·摩尔指出问题后才获得修正,但该失误的性质引发医学界激烈讨论。
错误细节
医学术语混淆事件
该AI系统错误地将"基底神经节"(basal ganglia,大脑中负责运动和情绪调节的实体结构)误称为"基底神经节"(不存在的术语)。更严重的是,系统将该结构与完全不同的"基底动脉"(供应大脑血液的重要血管)产生混淆。这种术语误用在医学语境中可能造成严重后果,例如错误的诊断结论或不当治疗。
企业回应
静默修正引发争议
在问题被指出后,谷歌悄然将博客中的错误术语修正为"基底神经节",但未就修改进行任何说明。目前凸显Med-Gemini能力的研究论文仍未修正。谷歌随后将错误归咎为简单笔误,但众多医生认为这是典型的AI幻觉现象——人工智能系统会虚构不存在的信息并以事实呈现。
幻觉效应影响
患者安全引发担忧
该事件引发对医疗AI系统(如Med-Gemini)可靠性的重大质疑。医生警告即使是微小错误也可能导致完全错误的诊断方向。当临床医生过度依赖AI输出时,可能根本无法识别此类错误。这种情况尤其值得关注,因为谷歌已在真实医院环境中测试该系统。
专家观点
医疗AI:潜力与监督并存
尽管出现严重错误,专家仍认为AI技术在医疗领域具备应用价值,但必须在严格监督下使用。专家强调这类系统常表现出过度自信,即使犯错也坚持错误结论。"这些系统不会说'我不知道',而是给出看似合理的错误答案,这才是根本问题",某放射科医生指出。
【全文结束】

