通过人类语义知识和眼动实验研究假图像检测的可能性,结果显示人们在感知伪造样本时倾向于关注图像的更局部区域,与观看真实图像时更分散的观察模式形成对比。
Mar, 2024
本研究通过对各种不同类型图像生成器的系统研究,探寻真实与虚假图像之间最具法医学意义的特征,发现合成图像中出现了可见的傅里叶域信号缺陷,以及自相关中出现的异常规律图案,并且当用于训练模型的数据集缺乏足够的多样性时,其偏见会转移到生成的图像中,观察了人造图像与真实图像之间较高频率信号内容的显著差异。
Apr, 2023
通过学习真实图像的自然特征,利用监督对比学习的方法,我们的研究提出了一种探测器,针对虚假图像中的伪像纹理的变化进行检测,并在广泛的实验证明了其在未知伪造技术的泛化和对不同变换的鲁棒性方面的显著优势。
探索合成人脸图像检测的实验研究。我们收集了一个称为 FF5 的数据集,包括近期的扩散模型,发现一个简单的模型在区分合成和真实图像方面能够达到近乎完美的准确率。该模型通过使用数据增强来处理常见的图像失真(降低分辨率、压缩)。此外,我们通过简单的 YOLO 架构模型识别了合成图像被修复到真实图像中的部分篡改,并定位了篡改区域。然而,该模型存在易受对抗性攻击的问题,并且对未见过的生成器无法泛化。我们还测试了最近的最先进方法在经过微调的 StabilityAI 的 Stable Diffusion 图像生成器上无法泛化来检测由新一代生成器产生的图像。
Jun, 2024
该论文提出了一种针对未知生成器的异常检测视角下的对抗式师生差异感知框架,通过采用对抗学习训练特征增强器,促使真实图像与教师模型之间的输出差异较小,而假图像的输出差异较大,从而解决了未知生成器检测问题。实验结果在公共基准测试中达到了最先进水平,可视化结果显示在面对各种类型的生成器时仍能保持较大的输出差异。
Dec, 2023
本文介绍了一种利用经典的频域分析和基本分类器检测深度伪造图片(DeepFakes)的简单方法,使用少量标记样本即可达到 100%的分类准确性,并在 CelebA 数据集和 FaceForensics ++ 数据集上进行了实验证明了该算法的高准确性。
Nov, 2019
对学术出版物和社交媒体进行了大量文献综述,发现了图像生成模型的 5 个定性缺陷,通过了解这些失败,可以识别这些模型需要改进的领域以及发展深度伪造检测策略。
Mar, 2023
本篇论文旨在通过 ArtiFact 大型数据集以及多分类分类方案和滤波步幅缩减策略,检测来自已知和未知生成器的合成图像,以增强合成图像探测器的泛化和鲁棒性。结果表明,该方案在 IEEE VIP Cup ICIP 2022 挑战赛上取得了明显的优势。
Feb, 2023
本研究提出了一个名为 DeepFD 的深度伪造鉴别器,采用对比损失的方法来检测由不同 GAN 生成的计算机生成图像,实验结果表明,DeepFD 可以有效地检测到几种最新的 GAN 生成的 94.7% 假图像。
Sep, 2018
本研究使用深度学习方法基于整个人脸和人脸补丁进行真 / 假图像的检测,主要应用于 DeepFake 技术的防范以及保障个人图像、视频等信息的原始性,实验结果表明,使用 patches 的加权可以提高准确性。