医生震惊:AI“发明”根本不存在的大脑部位 被指“极度危险”Doctors Alarmed After 'AI' Invents a Brain Part That Doesn't Even Exist: 'Super Dangerous'

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2025-08-11 18:38:11 - 阅读时长2分钟 - 939字
谷歌医疗AI模型Med-Gemini在分析脑部扫描时错误编造出"基底动脉神经节"这一不存在的大脑部位,引发医学界对AI医疗应用安全性的担忧。神经学家指出该错误混淆了"基底神经节"与"基底动脉"两个不同概念,尽管谷歌解释为拼写失误,但研究论文中的错误仍未修正,暴露出AI医疗诊断在术语准确性、安全边界和监管审核方面的重大隐患。该事件凸显AI在高风险医疗场景中可能带来的误诊风险。
医疗AI谷歌Med-Gemini技术漏洞大脑部位错误知识幻觉实时纠错机制语境依赖医疗风险人类医生决策权健康隐患
医生震惊:AI“发明”根本不存在的大脑部位 被指“极度危险”

医疗AI模型的隐患浮现

谷歌研发的医疗AI模型Med-Gemini近期被曝出严重技术漏洞。这款基于Gemini模型开发的医疗专用AI系统,本应通过分析医学影像诊断多种疾病,却在演示中识别出"左侧旧基底动脉神经节梗塞"——其中"基底动脉神经节(basilar ganglia)"是人体根本不存在的解剖结构。

神经病学专家布莱恩·摩尔(Bryan Moore)指出这一致命错误,该问题源于AI系统混淆了两个关键医学概念:负责运动控制的"基底神经节(basal ganglia)"和位于脑干的"基底动脉(basilar artery)"。虽然谷歌事后在其博客文章中修正了术语,但核心研究论文至今仍保留错误表述。

两个字母引发的医学灾难

普罗维登斯医疗集团首席医疗信息官毛林·沙(Maulin Shah)严厉批评:"两个字母的拼写错误在医学领域就是生死之差"。谷歌官方回应称该错误系AI从训练数据中习得的"常见拼写变体",但这一辩解并未消除医疗界担忧。

更令人不安的是,该错误持续存在近一年未被发现。这暴露了AI医疗系统的两大致命缺陷:其一,深度学习算法存在"知识幻觉"特性,会无中生有创造看似合理实则错误的信息;其二,当前缺乏有效的实时纠错机制,即使发现错误也难以快速修正所有应用场景中的错误数据。

医疗AI系统的连环危机

这不是谷歌医疗AI的首次事故。更先进的MedGemma模型同样暴露出"语境依赖"的致命缺陷——对同一问题的不同表述会产生矛盾结论。埃默里大学放射学专家朱迪·基乔亚(Judy Gichoya)警告:"这类系统本质上会虚构答案,且不会承认知识盲区,这在医疗领域可能直接危及生命"。

当前医疗AI应用正在加速扩展,包括AI心理治疗师、放射科医生、护理助手和病历转录系统等。但这项技术暴露的风险提示:在药物研发、疾病诊断等关键环节,人类医生必须保持终极决策权。正如毛林·沙强调:"AI的容错率必须远超人类标准,我们绝不能接受'与人类相当'的医疗AI"。

【全文结束】

大健康

猜你喜欢

  • ChatGPT将他引入哲学迷宫 他最终必须找到出路ChatGPT将他引入哲学迷宫 他最终必须找到出路
  • 产后脑出血:母亲的危险产后脑出血:母亲的危险
  • NASA与谷歌共同开发AI医疗助手,保障深空任务宇航员健康NASA与谷歌共同开发AI医疗助手,保障深空任务宇航员健康
  • AI在医疗领域的挑战与策略AI在医疗领域的挑战与策略
  • AI应用通过面部扫描预测疾病和早逝AI应用通过面部扫描预测疾病和早逝
  • AI每周完成20万次医生咨询,医疗健康服务迎来革命性变革AI每周完成20万次医生咨询,医疗健康服务迎来革命性变革
  • ProteinQure获得美国FDA与加拿大卫生部许可 在北美启动PQ203临床I期试验ProteinQure获得美国FDA与加拿大卫生部许可 在北美启动PQ203临床I期试验
  • AI聊天机器人会盲目重复医疗虚假信息吗?AI聊天机器人会盲目重复医疗虚假信息吗?
  • 10个AI在医疗保健领域的最佳应用案例10个AI在医疗保健领域的最佳应用案例
  • 60岁男子遵循ChatGPT减盐建议入院 溴中毒警示AI医疗建议风险60岁男子遵循ChatGPT减盐建议入院 溴中毒警示AI医疗建议风险
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康