生物医学可视化专家尚未就生成式AI在健康和科学应用中的图像生成达成共识。由于错误的解剖学图像可能在临床环境造成危害或引发网络错误信息,建立行业规范和最佳实践已迫在眉睫。
来自挪威卑尔根大学、加拿大多伦多大学和美国哈佛大学的研究团队在即将于11月召开的IEEE Vis 2025会议上发表的论文《"看起来性感但错误":使用生成式AI进行生物医学可视化的创造性与准确性矛盾》中,展示了GPT-4o和DALL-E 3生成的多组图像,并对比了专业可视化专家制作的图像。
研究揭示了两种截然不同的错误类型:既有细微偏差(如胰腺形态错误),也有明显谬误——如曾在《细胞与发育生物学前沿》撤稿论文中出现的"异常生殖器官大鼠"案例。作者指出,生成式AI产生的视觉幻觉可能误导公众和专业人士:"从缺乏专业知识的患者到经验丰富的临床医生,都可能基于错误的视觉信息做出重要决策。"
论文作者之一、卑尔根大学可视化研究博士罗克珊·齐曼(Roxanne Ziman)向《The Register》透露:"虽然尚未出现AI医疗图像直接导致健康损害的案例,但有研究参与者分享了荷兰AI福利评分系统错误指控外国父母福利欺诈的案例。"她特别指出,更严重的问题在于不准确医学图像在科研出版物中的传播,这些错误可能削弱疫苗推广等公共卫生传播的可信度。
研究团队调查了17位生物医学可视化从业者,将他们对生成式AI的态度归类为五个类型:热情采纳者、好奇适应者、谨慎乐观者、审慎回避者。受访者既赞赏AI生成的超现实美学风格,也批评其千篇一律的视觉特征。一位受访者"弗兰克"指出:"生成式AI的风格模板化令人厌倦。"
研究揭示了生成式AI在生物医学领域的致命缺陷:无法区分坐骨神经和尺神经等解剖结构。正如受访者"乌苏拉"形容:"要求显示胰腺时,MidJourney只会给你一堆外星蛋!"虽然当前错误显而易见,但随着技术进步,这些错误将变得更难识别。
研究人员特别关注AI生成内容的"责任模糊化"现象。受访者"金"强调:"应当有人能解释AI结果,这关乎信任和专业能力。"论文建议建立透明问责机制,防止黑箱模型带来的责任真空。
多伦多大学合著者谢赫里亚尔·萨兰(Shehryar Saharan)呼吁:"我们应当集体反思生成式AI如何重塑生物医学可视化工作的价值,避免技术使用与专业初心的脱节。"
【全文结束】

