据路透社援引发表在《Radiology》杂志上的一项研究显示,利用人工智能创建的、旨在模仿真实病例的虚假放射影像,可能同时欺骗专业医生和人工智能系统。该研究结论对诊断安全性和数字医疗系统的可靠性提出了严峻质疑。实验涉及来自六个国家12家医院的17名放射科医生,他们共分析了264张X光片,其中半数由人工智能生成(包括使用ChatGPT辅助制作)。
研究结果表明:在不知晓研究目的的情况下,仅41%的放射科医生能正确识别虚假影像;当被告知存在合成影像后,准确率提升至75%。这些数据凸显了区分真实影像与AI生成影像的巨大难度,即使是经验丰富的专家也难以应对。
• 人工智能易受自身创作的欺骗
测试还包括评估AI模型检测虚假影像的能力,涉及GPT-4o、GPT-5、Gemini 2.5 Pro和Llama 4 Maverick等系统。其检测准确率在57%至85%之间波动,甚至生成影像的原始模型也未能全部识别自身作品。
• 重大风险:医疗欺诈与网络攻击
该研究首席作者、西奈山伊坎医学院(Icahn School of Medicine at Mount Sinai)的迈克尔·托尔德曼(Mickael Tordjman)警告存在显著风险:医疗欺诈——伪造X光片可能在诉讼中模拟不存在的病症;网络安全——攻击者可将虚假影像植入医院系统;信任危机——数字医疗记录的完整性可能受损。托尔德曼表示:“这些X光片足够逼真以欺骗放射科医生,由此产生的高风险漏洞不容忽视。”
• 下一阶段风险:CT与MRI影像
研究人员警示该现象可能进一步恶化:CT和MRI影像可能被伪造;此类操纵将更难被察觉;临床影响可能极为严重。托尔德曼强调:“我们目前可能仅看到冰山一角。”该研究呼吁亟需采取三项措施:开发合成影像检测工具;为医生创建教育培训数据集;在医院实施更严格的安全协议。
【全文结束】

