深假视频检测器的普适性研究
通过对深度伪造图像的产生和检测进行深入研究,本论文提出了一种全面的深度伪造图像生成与识别的方法。在我们的研究中,我们创建了一个名为 DeepFakeFace (DFF) 的数据集,用于训练和测试检测深度伪造图像的算法。我们进行了对 DFF 数据集的全面评估,并提出了两种评估方法来测试深度伪造识别工具的强度和适应性。根据我们的发现,不同的深度伪造方法和图像变化产生了多种结果,突显了对深度伪造检测器的需求。我们的 DFF 数据集和测试旨在促进更有效的抵御深度伪造的工具的发展。
Sep, 2023
本研究对最新的深度伪造检测器进行了广泛综述和分析,评估了它们在几个关键标准下的表现,并将它们分类成四个高水平组和十三个细粒度子组,进一步提供了关于影响检测器有效性的因素的深入实际见解。通过考察 16 个主要检测器在多种标准攻击场景下的普适性,包括黑盒、白盒和灰盒设置,系统性的分析和实验为对抗各种攻击场景的深度伪造检测器的研究奠定了基础,并为制定更积极的防御策略提供了启示。
Jan, 2024
本文研究深度学习技术生成的深度伪造视频的真实性检测问题,发现现有算法对于视频质量降低的数据污染容易攻击。研究在全球范围内实现实际的深度伪造检测并引出技术和伦理道德上的问题。
Jun, 2022
本文研究了深度伪造对安全和隐私的威胁,探讨了深度伪造检测器训练数据集中需包含高质量样本,提出了一种基于自编码器的面部交换技术,生成了 90 个高质量深度伪造样本并验证了它们在检测器的训练中具有一定的作用。
May, 2023
本研究以黑盒方式对当今最先进的 DeepFake 检测方法进行批判性漏洞研究,旨在提高其鲁棒性,包括对抗攻击和使用通用对抗样本进行更容易的攻击。该研究还在 DeepFake 检测挑战赛的获奖入口上进行了评估,并证明了它们可以很容易地被跨模型攻击所绕过。
Nov, 2020
本文讲述了人工智能 (AI) 技术支持的合成媒体 - 深度伪造技术 (deepfakes),由此带来了令人兴奋的新应用,但也产生了对我们越来越数字化的世界的严重威胁。为了缓解这些威胁,研究人员尝试提出新的深度学习技术来检测 deepfakes,同时比较了多种模型模型的判别能力。他们的结果印证了集成模型在应对不同操作类别时的准确性,但是它的推广需要众多的训练数据作为支撑。
Apr, 2023
通过生成式 AI 和扩散模型,我们引入了两个广泛的生成伪造数据集,用于测试当前深伪造检测器的脆弱性,并提出了增强训练数据多样性和动量困难提升策略来改进模型的普适性。通过全面评估,我们的模型优化方法明显优于以前的替代方案。
Apr, 2024
在本文中,我们使用基于 GAN 的开源软件从 VidTIMIT 数据库的视频生成 Deepfake 视频,调整不同的训练和混合参数对生成视频的质量有显著影响,并表明当前的人脸识别系统和现有的检测方法都很容易受到 Deepfake 视频的干扰。
Dec, 2018
本研究探讨了多任务学习技术的各种方式,旨在将视频分类为原始或经过操纵的情况,以在深度伪造场景中达到广义性。我们在评估中使用的数据集是 FaceForensics++,其中包括通过四种不同技术进行操纵的 1000 个原始视频,共计 5000 个视频。我们对多任务学习和对比技术进行了大量实验,这些技术在文献中已经很好地研究了其广义性的好处。可以得出结论,所提出的检测模型具有较好的广义性,即与最先进的方法相比,能够准确地检测训练过程中未遇到的操纵方法。
Aug, 2023