深度伪造检测在实际场景中的评估框架
本研究旨在建立一个全面且一致的基准,开发一个可重复的评估流程,通过对一系列检测方法的性能进行测量,建立基准,比较深度伪造检测方法并测量进展。研究采用超过 13 种不同方法生成的操纵样本集,实现并评估了 11 种流行的检测方法(9 种算法),并使用 6 个公正实用的评估指标进行评估。最终,训练了 92 个模型并进行了 644 个实验,结果以及共享的数据和评估方法构成了一项用于比较深度伪造检测方法并衡量进展的基准。
Mar, 2022
本研究对最新的深度伪造检测器进行了广泛综述和分析,评估了它们在几个关键标准下的表现,并将它们分类成四个高水平组和十三个细粒度子组,进一步提供了关于影响检测器有效性的因素的深入实际见解。通过考察 16 个主要检测器在多种标准攻击场景下的普适性,包括黑盒、白盒和灰盒设置,系统性的分析和实验为对抗各种攻击场景的深度伪造检测器的研究奠定了基础,并为制定更积极的防御策略提供了启示。
Jan, 2024
通过综述现有的 deepfake 生成和检测技术,本文分析了基于深度学习的 deepfake 创建方法和检测技术,并讨论了当前的 deepfake 检测方法的局限性和挑战,以及未来的研究方向,强调了对 deepfake 检测技术持续研究和发展的重要性,以应对 deepfake 对社会的负面影响,并确保数字视觉媒体的完整性。
Sep, 2023
DeepFidelity 和 SSAAFormer 是一种新的深度伪造检测框架和网络结构,能够自适应地区分具有不同图像质量的真实和伪造人脸图像,并在多个基准数据集上展现出优势。
Dec, 2023
本研究以黑盒方式对当今最先进的 DeepFake 检测方法进行批判性漏洞研究,旨在提高其鲁棒性,包括对抗攻击和使用通用对抗样本进行更容易的攻击。该研究还在 DeepFake 检测挑战赛的获奖入口上进行了评估,并证明了它们可以很容易地被跨模型攻击所绕过。
Nov, 2020
在本文中,我们使用基于 GAN 的开源软件从 VidTIMIT 数据库的视频生成 Deepfake 视频,调整不同的训练和混合参数对生成视频的质量有显著影响,并表明当前的人脸识别系统和现有的检测方法都很容易受到 Deepfake 视频的干扰。
Dec, 2018
本文提出了一种有效的方法来评估 DeepFake 视频的视觉真实感,并详细介绍了两个卷积神经网络模型的数据预处理和训练程序,这些模型通过从帧序列中提取的特征来预测 DeepFake 视频的 Mean Opinion Scores,并在 DeepFake Game Competition (DFGC) 2022 评估中获得了第三名。
Jun, 2023
本文研究深度学习技术生成的深度伪造视频的真实性检测问题,发现现有算法对于视频质量降低的数据污染容易攻击。研究在全球范围内实现实际的深度伪造检测并引出技术和伦理道德上的问题。
Jun, 2022
通过对深度伪造图像的产生和检测进行深入研究,本论文提出了一种全面的深度伪造图像生成与识别的方法。在我们的研究中,我们创建了一个名为 DeepFakeFace (DFF) 的数据集,用于训练和测试检测深度伪造图像的算法。我们进行了对 DFF 数据集的全面评估,并提出了两种评估方法来测试深度伪造识别工具的强度和适应性。根据我们的发现,不同的深度伪造方法和图像变化产生了多种结果,突显了对深度伪造检测器的需求。我们的 DFF 数据集和测试旨在促进更有效的抵御深度伪造的工具的发展。
Sep, 2023