本文提出了一个新的多注意力深度伪造检测网络,该网络通过引入区域独立的损失和基于注意力的数据增强策略来解决学习难度问题,并在多个数据集上展示了该方法在检测深度伪造方面的优越性。
Mar, 2021
通过引入细粒度提示和粗细联合训练框架,提出了一种名为视觉语言人脸伪造检测(VLFFD)的新范式,以解决针对深度伪造的检测模型缺乏语义信息和解释性的问题,并在多个具有挑战性的基准测试中证明了该方法对现有的检测模型有所改进。
Jul, 2023
本文通过系统研究最新扩散模型生成的虚假图片的真实性,分析其图像的低层特征和用作种子的文本说明的语义作用,并提供了一个新的包含约 600k 张图像的数据集 COCOFake。
Apr, 2023
探讨 Deepfake 技术的历史、发展和检测,并议论了基于生理测量(如眉毛识别、眨眼检测、眼动检测、耳朵和口部检测、心跳检测等)的挑战,同时提出了各种不同的生物特征及分类器比较,并对 GANs 模型的检测方法进行了综述。
Jan, 2023
本研究使用自行创建的虚假人脸数据库进行图像侦测、分类和生成,结果表明视觉基于人脸识别算法与人类水平的表现之间存在差距,但这为提高人脸识别算法的进展提供了可借鉴的知识。
Sep, 2018
在这篇论文中,我们质疑传统的观点,即在深度伪造检测中,经过监督训练的 ImageNet 模型具有强大的泛化能力并适用于作为特征提取器。我们提出了一种新的度量方法,称为 “模型可分离性”,用于以一种无监督的方式视觉与定量地评估模型分离数据的能力。我们还提出了一个系统化的基准,以确定深度伪造检测与其他计算机视觉任务之间的相关性,使用预训练模型。我们的分析表明,预训练的人脸识别模型与深度伪造检测更密切相关。此外,使用自监督方法训练的模型在分离性方面比使用监督方法训练的模型更有效。在一个小型深度伪造数据集上进行所有模型的微调后,我们发现自监督模型提供了最佳结果,但存在过拟合的风险。我们的结果提供了有价值的见解,应该有助于研究人员和从业人员开发更有效的深度伪造检测模型。
Oct, 2023
本研究以黑盒方式对当今最先进的 DeepFake 检测方法进行批判性漏洞研究,旨在提高其鲁棒性,包括对抗攻击和使用通用对抗样本进行更容易的攻击。该研究还在 DeepFake 检测挑战赛的获奖入口上进行了评估,并证明了它们可以很容易地被跨模型攻击所绕过。
Nov, 2020
本研究使用深度强化学习与卷积神经网络相结合,设计了一种新的深度伪造检测算法,通过统计每张测试图像的各种增强方法的分类分数来检测深度伪造的图片,实验证明该方法在跨数据集的泛化性能方面优于现有的模型,并获得最先进的性能。
Apr, 2022
通过在 Foundation Models 中加入富信息,利用了 CLIP 的图像编码器和 Facial Component Guidance 以提高 Deepfake 检测的鲁棒性和泛化性能。在跨数据集的评估中,我们的方法在识别未见过的 Deepfake 样本方面表现出卓越的有效性,并取得了显著的性能提升。
Apr, 2024
本文研究了深度伪造对安全和隐私的威胁,探讨了深度伪造检测器训练数据集中需包含高质量样本,提出了一种基于自编码器的面部交换技术,生成了 90 个高质量深度伪造样本并验证了它们在检测器的训练中具有一定的作用。
May, 2023