让真实图像作为判断者,发现由生成模型合成的假图像
本篇论文旨在通过 ArtiFact 大型数据集以及多分类分类方案和滤波步幅缩减策略,检测来自已知和未知生成器的合成图像,以增强合成图像探测器的泛化和鲁棒性。结果表明,该方案在 IEEE VIP Cup ICIP 2022 挑战赛上取得了明显的优势。
Feb, 2023
本研究通过对各种不同类型图像生成器的系统研究,探寻真实与虚假图像之间最具法医学意义的特征,发现合成图像中出现了可见的傅里叶域信号缺陷,以及自相关中出现的异常规律图案,并且当用于训练模型的数据集缺乏足够的多样性时,其偏见会转移到生成的图像中,观察了人造图像与真实图像之间较高频率信号内容的显著差异。
Apr, 2023
基于真实图像的生成图像检测方法,在特征空间中找到真实图像的共性,并将其映射到稠密子空间,从而使得无论生成模型如何,生成图像都能够被投影到子空间之外,实验证明所提方法能够在高推理效率的同时,通过使用较少的训练数据与最新生成模型竞争,并具有抗各种后处理的鲁棒性。
Nov, 2023
通过人类语义知识和眼动实验研究假图像检测的可能性,结果显示人们在感知伪造样本时倾向于关注图像的更局部区域,与观看真实图像时更分散的观察模式形成对比。
Mar, 2024
探索合成人脸图像检测的实验研究。我们收集了一个称为 FF5 的数据集,包括近期的扩散模型,发现一个简单的模型在区分合成和真实图像方面能够达到近乎完美的准确率。该模型通过使用数据增强来处理常见的图像失真(降低分辨率、压缩)。此外,我们通过简单的 YOLO 架构模型识别了合成图像被修复到真实图像中的部分篡改,并定位了篡改区域。然而,该模型存在易受对抗性攻击的问题,并且对未见过的生成器无法泛化。我们还测试了最近的最先进方法在经过微调的 StabilityAI 的 Stable Diffusion 图像生成器上无法泛化来检测由新一代生成器产生的图像。
Jun, 2024
通过建立一个综合基准测试来评估最先进的检测器的泛化能力和鲁棒性,然后通过频域分析伪造痕迹来得出各种见解,并进一步证明使用频率表示训练的检测器可以很好地泛化到其他未见的生成模型。
Feb, 2024
本文探讨了在不同概念类之间泛化的挑战,并提出了一种基于质量评估模型的质量抽样方法,通过 StyleGAN2 和 Latent Diffusion 生成的图像进行实验,结果表明采用本文提出的方法可以提高合成图像检测器的检测性能。
Apr, 2023
本文提出了一种基于语言引导对比学习的合成图像检测方法,通过添加文本标签来进行联合文本 - 图像对比学习进行取证特征提取,并将合成图像检测问题制定为一种识别问题。该方法在准确性和 AUC 指标上明显优于同类问题的现有方法。
May, 2023
提出了一种针对深度伪造技术 (Fake 技术) 的视觉数据的伪造检测算法,通过重新合成测试图像并提取视觉线索进行检测,该方法包括超分辨率、降噪和上色。该方法具有较高的检测效率、交叉 GAN (Cross-GAN) 泛化以及对 CelebA-HQ、FFHQ 和 LSUN 数据集的扰动鲁棒性。
May, 2021
利用机器学习技术来区分 AI 生成的合成图像和真实图像,通过优化深度学习模型和对比实验结果表明,深度学习模型可以更准确地识别合成图像,进一步推动数字媒体可信度及 AI 生成内容的伦理和技术探索。
Jan, 2024