通过反演确定源代码生成器
通过度量学习的方法,我们提出了一种用于实现开放集场景下合成图像源追溯的技术,该技术通过学习可区分不同生成器的可转移嵌入向量,并通过与已知生成器的学习参考点在嵌入空间中的距离来判定图像的真实性。实验结果表明,我们的方法能够在开放集场景下成功追溯合成图像的源。
Aug, 2023
分析了一种广泛应用的生成式对抗网络(GANs)的结构,证明其颜色处理方式与实际相机明显不同,进而利用这两种区别可以有效区分 GAN 图像与相机图像。
Dec, 2018
通过训练网络、识别不在分布范围内的图像、聚类、合并及优化等多个步骤,我们提出了一种迭代算法,可以高准确率发现来自以前未见过的 Generative Adversarial Networks (GANs) 的图像,同时,该算法在识别真实数据集上的 GAN 时也具有泛化能力,并可应用于在线发现和真假检测。
May, 2021
我们提出了一种广义的深度伪造归因网络 (GDA-Net),可以将伪造图像归因于相应的 GAN 架构,即使它们是从不同种子 (cross-seed) 的重新训练版本或现有 GAN 模型的微调版本生成的。与现有方法相比,对 GAN 模型的交叉种子和微调数据进行的大量实验证明了我们的方法的高效性。我们还提供了源代码来验证我们的结果。
Jun, 2024
生成式人工智能的最新进展已经导致了生成视觉逼真合成视频的技术的发展。本文证明合成图像检测器无法检测合成视频,因为合成视频生成器引入的痕迹与图像生成器留下的痕迹明显不同。尽管如此,我们展示了合成视频痕迹是可以学习的,并且可以在 H.264 重新压缩后用于可靠的合成视频检测或生成器来源归因。此外,我们还证明了通过零样本迁移进行新生成器的视频检测具有挑战性,但可以通过少样本学习实现对新生成器的准确检测。
Apr, 2024
通过反转图像的文本提示并将重构的提示放入不同的候选模型中来重新生成候选伪图片,通过计算并排序测试图片与候选图片的相似性,我们可以确定图片的来源模型,从而使模型的所有者对其模型的任何滥用负有责任。
Mar, 2024
本研究通过对各种不同类型图像生成器的系统研究,探寻真实与虚假图像之间最具法医学意义的特征,发现合成图像中出现了可见的傅里叶域信号缺陷,以及自相关中出现的异常规律图案,并且当用于训练模型的数据集缺乏足够的多样性时,其偏见会转移到生成的图像中,观察了人造图像与真实图像之间较高频率信号内容的显著差异。
Apr, 2023
使用一种局部调整方法,本文提出了一种基于生成对抗网络(GANs)的反演算法,能够实现接近完美的真实照片复制,生成出不仅几乎无法区分,而且还容易编辑的合成图像,并证明了其对于多样性和包容性的重要性。
Feb, 2022
本研究发现了一些图像取证分类器的脆弱性,提出了五种攻击案例,在实验中发现通过篡改图像,向合成器的潜在空间添加噪声模式等方式,均能有效地降低分类器的区分真伪的准确率,揭示了某些图像取证分类器的显著弱点。
Apr, 2020