自监督图转换器用于深度伪造检测
本研究通过对监督和自监督模型进行全面的比较分析,评估了八种监督深度学习架构和两种基于转化器的使用自监督策略(DINO,CLIP)进行预训练的模型在四个基准数据集上的性能,同时还研究了模型大小和性能之间的权衡,以提供关于不同深度学习架构、训练策略和深度伪造检测基准的效果的见解,促进更准确可靠的深度伪造检测系统的发展,从而在减轻深伪造对个人和社会的有害影响方面起到重要作用。
Aug, 2023
本研究探讨自监督预训练变换器相对于有监督预训练变换器和传统神经网络(ConvNets)在检测各种类型的深度伪造方面的有效性,重点关注其在数据有限的情况下改进泛化能力的潜力。通过使用适度的训练数据并实施部分微调,在利用自监督学习和变换器进行深度伪造检测时,我们观察到了与传统方法可比拟的适应性和通过注意机制实现的自然可解释性,且同时需要较少的计算资源。
May, 2024
通过自我监督学习的实现,该论文提出了一种自我监督变压器协同对比和重建学习 (CoReST) 方法,该方法首先仅在真实人脸视频上进行自我监督预训练,然后在特定的人脸伪造视频数据集上用线性头进行微调,通过引入对比和重建学习的辅助任务来增强表示学习,同时引入领域适应性重建模块来弥合不同伪造领域之间的差距,实验结果表明,该方法在公共数据集上的表现比现有的有监督竞争方法更好,并具有令人印象深刻的泛化性能。
Sep, 2023
利用主动合成的伪造图像进行深度学习的泛化辨别,提出了一种新的深度伪造检测方法,该方法使用一种泛化表示,并通过增加伪造的多样性和扩展敏感性来提高检测效果,采用了对抗训练策略,能获得更好的性能表现。
Mar, 2022
在这篇论文中,我们质疑传统的观点,即在深度伪造检测中,经过监督训练的 ImageNet 模型具有强大的泛化能力并适用于作为特征提取器。我们提出了一种新的度量方法,称为 “模型可分离性”,用于以一种无监督的方式视觉与定量地评估模型分离数据的能力。我们还提出了一个系统化的基准,以确定深度伪造检测与其他计算机视觉任务之间的相关性,使用预训练模型。我们的分析表明,预训练的人脸识别模型与深度伪造检测更密切相关。此外,使用自监督方法训练的模型在分离性方面比使用监督方法训练的模型更有效。在一个小型深度伪造数据集上进行所有模型的微调后,我们发现自监督模型提供了最佳结果,但存在过拟合的风险。我们的结果提供了有价值的见解,应该有助于研究人员和从业人员开发更有效的深度伪造检测模型。
Oct, 2023
该论文提出了一种基于卷积变换器的深度模型,旨在提高 Deepfake 检测性能,通过整合图片的局部和全局信息,采用卷积池化和再关注机制来增强特征提取、提升效率,并利用图像关键帧进行模型训练以提高性能,提出的解决方案在多个 Deepfake 基准数据集上均优于现有的基准算法。
Sep, 2022
本文研究的问题是可广泛适用的合成图像检测,旨在检测来自各种生成方法,例如 GAN 和扩散模型的伪造图像。研究发现,传统的固定模式不利于学习伪造表示,因此提出了一种新颖的伪造感知自适应变压器方法,即 FatFormer。经过实验验证,FatFormer 在未见过的 GAN 和扩散模型上表现出色,检测性能平均达到 98% 和 95% 的准确率。
Dec, 2023
通过在 Foundation Models 中加入富信息,利用了 CLIP 的图像编码器和 Facial Component Guidance 以提高 Deepfake 检测的鲁棒性和泛化性能。在跨数据集的评估中,我们的方法在识别未见过的 Deepfake 样本方面表现出卓越的有效性,并取得了显著的性能提升。
Apr, 2024
本研究使用深度强化学习与卷积神经网络相结合,设计了一种新的深度伪造检测算法,通过统计每张测试图像的各种增强方法的分类分数来检测深度伪造的图片,实验证明该方法在跨数据集的泛化性能方面优于现有的模型,并获得最先进的性能。
Apr, 2022