揭示真相:探索虚假图像中的人类注视模式
通过学习真实图像的自然特征,利用监督对比学习的方法,我们的研究提出了一种探测器,针对虚假图像中的伪像纹理的变化进行检测,并在广泛的实验证明了其在未知伪造技术的泛化和对不同变换的鲁棒性方面的显著优势。
Mar, 2024
通过建立一个综合基准测试来评估最先进的检测器的泛化能力和鲁棒性,然后通过频域分析伪造痕迹来得出各种见解,并进一步证明使用频率表示训练的检测器可以很好地泛化到其他未见的生成模型。
Feb, 2024
本文通过系统研究最新扩散模型生成的虚假图片的真实性,分析其图像的低层特征和用作种子的文本说明的语义作用,并提供了一个新的包含约 600k 张图像的数据集 COCOFake。
Apr, 2023
该研究旨在针对利用深度学习工具生成人脸的 Deepfake 现象,提出新的检测方法。提出的该算法基于期望最大化算法,提取了一组特定的局部特征来建模卷积生成过程,经实验验证有效地区分了不同的架构和相应的生成过程。
Apr, 2020
本研究探究当前最先进的基于人工智能技术的视觉内容生成模型是否可以始终欺骗人类眼睛和传达错误信息,并通过高质量的定量研究揭示,人类不能在很大程度上区分真实的照片和人工智能创造的虚假照片。
Apr, 2023
人们对深度伪造视频的感知能力进行主观研究,结果显示机器学习模型相对于人类在同样的 40 个视频上有更好的表现,而人们又往往高估了自己的检测能力。这一研究结果有助于对比人类和机器的性能、推进法医分析,并实现自适应对策。
May, 2024
探索合成人脸图像检测的实验研究。我们收集了一个称为 FF5 的数据集,包括近期的扩散模型,发现一个简单的模型在区分合成和真实图像方面能够达到近乎完美的准确率。该模型通过使用数据增强来处理常见的图像失真(降低分辨率、压缩)。此外,我们通过简单的 YOLO 架构模型识别了合成图像被修复到真实图像中的部分篡改,并定位了篡改区域。然而,该模型存在易受对抗性攻击的问题,并且对未见过的生成器无法泛化。我们还测试了最近的最先进方法在经过微调的 StabilityAI 的 Stable Diffusion 图像生成器上无法泛化来检测由新一代生成器产生的图像。
Jun, 2024
深度伪造生成对场景整体几何和采集过程造成了特征变化,通过分析图像中表面的特征可生成一个可用于深度伪造检测的描述符,称为 SurFake。在各种深度伪造和深度学习模型上进行的实验结果证实了该特征可用于区分原始图像和经过篡改的图像,并且实验证明结合视觉数据可提高检测准确性。
Oct, 2023
通过研究伪造图像的特殊属性,本文提出了一种可以更容易地检测到伪造图像的基于补丁分类器,并演示了即使图像生成器进行对抗性微调,仍然存在可检测的伪造图像噪点的技术。
Aug, 2020