AI模型“发明”不存在的脑区引发医学界警惕:“极其危险”Doctors Alarmed After 'AI' Invents a Brain Part That Doesn't Even Exist: 'Super Dangerous'

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2025-08-11 18:41:23 - 阅读时长3分钟 - 1047字
谷歌推出的医疗AI模型Med-Gemini在脑部扫描分析中出现严重错误,将"基底神经节"与"基底动脉"混淆并"创造"出不存在的"基底动脉神经节"。该错误持续近一年未被发现,凸显AI医疗应用中术语误用可能引发的临床风险,多位神经学家和医学AI专家警示此类技术在高风险领域的应用需建立更严格验证机制。
AI医疗Med-Gemini模型虚假脑区误诊公众健康误导技术缺陷医疗应用风险技术验证框架健康顾问服务药物研发
AI模型“发明”不存在的脑区引发医学界警惕:“极其危险”

生成式人工智能的快速发展伴随着频繁的技术错误,这些被称为"幻觉"的现象可能导致虚假信息的产生。这种技术缺陷已显著阻碍AI在医疗等关键领域的应用。谷歌2024年5月在arXiv平台发布的Med-Gemini医疗AI模型研究论文中,就出现了持续近一年未被发现的严重错误,暴露出过度依赖AI技术的潜在风险。

Med-Gemini医疗AI模型

根据谷歌研究博客披露的信息,这款基于Gemini模型开发的医疗专用AI系统,通过整合脱敏医疗数据实现了多模态信息处理能力。其技术突破体现在能够同时解析文本、医学影像、视频及电子健康记录(EHR),支持包括放射科报告生成和患者数据分析在内的多项医疗流程。

莫须有的脑区

该模型在案例分析中错误识别出"左侧基底动脉神经节梗死"——这个在人体解剖学中根本不存在的术语。神经病学专家布赖恩·摩尔指出,该错误源于AI系统将基底神经节(basal ganglia)与基底动脉(basilar artery)两个不同概念混淆。尽管谷歌在后续更新中修正了博客内容,但研究论文中的原始错误仍被保留。

这种技术缺陷可能带来严重后果:在医疗场景中,术语混淆可能导致误诊;而在公众健康信息检索场景中,则可能引发误导性认知。虽然本次错误未造成实际医疗事故,但医学界普遍认为这为AI医疗应用敲响了警钟。

技术修正与争议

"两个字母之差却是天壤之别",普罗维登斯医疗信息官莫林·沙阿强调。谷歌在技术说明中解释,这种错误源于训练数据中"basal"的常见误写"basilar"。尽管官方辩称"报告含义未变",但医疗行业对AI系统在专业术语精确度要求上的质疑持续发酵。

行业普遍困境

Med-Gemini并非唯一出现问题的医疗AI模型。谷歌开发的更高级模型MedGemma同样存在输出不稳定现象,如同一问题不同表述导致结论矛盾。埃默里大学医学信息学专家朱迪·吉乔亚指出:"这类系统倾向于编造答案且不承认知识局限,这在医疗领域可能造成致命后果。"

当前AI医疗应用正加速推进:谷歌已启动AI健康顾问服务,推出"AI联合科学家"系统辅助药物研发。但行业专家呼吁建立更严格的技术验证框架,要求AI系统的容错率必须远超人类标准。正如沙阿所言:"在生命攸关的医疗领域,'与人类相当'的技术水平显然不够。"

【全文结束】

大健康

猜你喜欢

  • AI突破?OpenAI称ChatGPT-5可检测癌症及其他疾病AI突破?OpenAI称ChatGPT-5可检测癌症及其他疾病
  • AI应用通过面部扫描预测疾病和早逝AI应用通过面部扫描预测疾病和早逝
  • 父亲重伤摩托车事故后坚持完成5公里跑父亲重伤摩托车事故后坚持完成5公里跑
  • 文化与语言多样化社区老年人的认知障碍、身体衰弱和抑郁:一项横断面研究文化与语言多样化社区老年人的认知障碍、身体衰弱和抑郁:一项横断面研究
  • AI在医疗领域的挑战与策略AI在医疗领域的挑战与策略
  • 应用即将为你看诊:新型人工智能通过面部扫描预测疾病、失调及早亡风险应用即将为你看诊:新型人工智能通过面部扫描预测疾病、失调及早亡风险
  • 医生震惊:AI“发明”根本不存在的大脑部位 被指“极度危险”医生震惊:AI“发明”根本不存在的大脑部位 被指“极度危险”
  • ChatGPT作为你的床边伙伴:能否传递同理心、承诺与关怀?ChatGPT作为你的床边伙伴:能否传递同理心、承诺与关怀?
  • 2025美国医疗AI法律与实践指南2025美国医疗AI法律与实践指南
  • 10个AI在医疗保健领域的最佳应用案例10个AI在医疗保健领域的最佳应用案例
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康