AI生成的组织切片图像也可能欺骗专家。当面对一张图像是真实还是由AI生成的问题时,人们(直觉上)会比错误分类更快地做出正确分类,但评估仍然给他们带来了挑战。这是耶拿大学的一项名为“专家无法可靠识别AI生成的组织学数据”的研究结果。共有800名参与者被要求对真实的和人工生成的组织切片图像进行分类。
为了生成用于研究的人工组织切片图像,研究人员使用DreamBooth微调了稳定扩散模型。两个独立的稳定扩散模型分别用染色的小鼠肾脏组织的真实切片图像进行了训练:一个模型使用3张图像,另一个模型使用15张图像。每个模型随后生成了100张人工图像。从这两组100张人工图像中随机选择了四张图像。这八张人工图像与一个模型的三张真实训练图像和另一个模型的五张训练图像混合在一起。参与者被逐一展示总共16张图像,并要求决定它是真实图像还是AI生成的图像,或不作答。
非专家组能够正确分类图像的比例为55%。专家组的正确率为70%。来自仅用三张真实图像训练的模型生成的AI图像更容易被正确识别为非真实。没有一位非专业人士能正确分类所有图像。只有10位专家成功做到了这一点。
无论展示的是哪张图片,所有参与者通常都在前30秒内做出了决定。然而,专家平均来说对每个单独决策花费的时间比非专家更多。值得注意的是,所有参与者——无论是专家还是非专业人士——在正确分类图片时都显著更快,而错误分类时则更慢。“这一观察结果与基于感知的决策制定当前模型是一致的”,该研究的第一作者Jan Hartung博士说。
随着生成算法的发展,人类越来越难以识别AI生成的内容。研究负责人Ralf Mrowka教授总结道:“我们的实验表明,经验有助于识别假图像,但即使如此,仍有相当一部分人工图像未能被可靠识别。”为了防止科学出版物中的欺诈行为,研究作者建议引入技术标准以确保数据来源的真实性。应强制提交原始数据,并考虑使用自动工具检测伪造图像。
(全文结束)

