由人工智能创建的虚假放射影像,其逼真程度足以模仿真实患者的医学影像,不仅能欺骗经验丰富的放射科医生,甚至能骗过人工智能诊断系统本身。据周三路透社报道并由Agerpres转引的研究显示,这项技术存在被恶意操纵和引发误诊的重大风险。
纽约西奈山医学院的米克尔·托德曼博士领导的研究团队,组织12家医院来自6个国家的17名放射科医生,对264张X光片进行分析,其中半数由ChatGPT或RoentGen等人工智能工具生成。
当放射科医生未被告知研究真实目的时,仅有41%能自发识别出人工智能生成的影像。根据发表在《放射学》期刊的报告,当医生获知数据集包含合成影像后,区分真实X光片与合成影像的平均准确率提升至75%。
"存在足够逼真的假X光片能欺骗放射科医生这一事实,为医疗欺诈诉讼埋下高风险隐患——例如伪造的骨折影像可能与真实病例无法区分。"纽约西奈山医学院米克尔·托德曼博士在声明中指出,"更存在重大网络安全风险:若黑客入侵医院网络植入合成影像,可能操纵患者诊断结果,甚至通过破坏电子病历的根本可靠性引发大规模临床混乱。"
研究显示,四种大型语言模型——OpenAI的GPT-4o、OpenAI的GPT-5、谷歌的Gemini 2.5 Pro和Meta Platforms的Llama 4 Maverick——在检测假影像方面的准确率介于57%至85%之间。
值得注意的是,即使生成深度伪造内容的ChatGPT-4o模型,也未能完全识别所有假影像。研究人员指出,该模型虽比其他大型语言模型识别率更高,但仍存在漏检情况。
"关于可能出现的假CT扫描和MRI影像,我们可能仅看到冰山一角。"托德曼博士强调,"当前建立专业教育数据集和检测工具至关重要。"
【全文结束】

