自适应 Transformers 用于稳健的少样本跨域人脸防伪
本研究利用 Vision Transformer (ViT) 架构并结合 DINO 框架,对面部反欺诈任务进行了 Fine-tuning,与传统的 CNN 模型 EfficientNet b2 进行了性能比较。研究结果显示,ViT 模型在准确性和对不同欺诈方法的抵抗性方面优于 CNN 模型,进一步推动了生物识别安全领域的重要进展。
Jun, 2024
借助先进的人脸操作技术,本研究提出了一种新的适应性伪造感知 Transformer (FA-ViT) 来检测 Deepfakes,通过冻结预训练的 Transformer 参数并引入特定组件 (LFI 和 GFA) 来适应与伪造相关的知识,并利用单域成对学习 (SDPL) 以提高性能。实验证明,FA-ViT 在跨数据集评估和跨操作情景中具有最先进的性能,提高了对未知扰动的鲁棒性。
Sep, 2023
基于卷积视觉变换器的框架通过全局信息和面部图像中的局部线索来改善人脸识别性能和抵抗领域转变的作用,在面部反欺诈和领域泛化等领域取得了显著的提升。
Jul, 2023
我们提出了一种使用视觉变换器 (ViT) 对转换图像进行模型微调的新方法,该转换图像域自适应方法不会导致模型准确度下降,基于 ViT 的嵌入结构进行实施,实验证实了该方法在使用 CIFAR-10 和 CIFAR-100 数据集的加密图像时仍能防止准确度下降。
Sep, 2023
通过使用多模态预训练与自然语言语义对齐图像表示以改善面部反欺骗任务的泛化能力,进一步利用多模态对比学习策略弥合源域与目标域之间的差距,实现鲁棒的跨领域面部反欺骗。
Sep, 2023
本文提出了一种基于视觉 Transformer 模型的零样本反欺诈方法,通过在公共数据集上的实验,证明了该方法在 HQ-WMCA 和 SiW-M 数据集中零样本协议方面优于现有技术,并在跨数据库性能方面取得了显著提升。
Nov, 2020
提出了一种用于视觉变换器(ViT)的隐私保护深度神经网络(DNN)的新方法,该方法允许我们不仅训练模型和使用视觉受保护的图像进行测试,而且还能避免使用加密图像导致的性能下降,而传统方法无法避免图像加密的影响。通过领域适应方法,高效地对使用加密图像的 ViT 进行微调。实验证明,该方法在 CIFAR-10 和 ImageNet 数据集的图像分类任务中,在分类准确度方面优于传统方法。
Jan, 2024
本文针对 Vision Transformer 在对抗攻击下的稳健性问题进行了探究,实验证明 Vanilla ViTs 或 Hybrid-ViTs 的对抗攻击鲁棒性比 CNNs 更强。通过提供特征图、注意力图等分析,对注意力模型进行了深入理解。
Jun, 2021
无监督领域自适应方法已取得了最新的优秀成果,并大多数使用了卷积神经网络作为特征提取器,然而视觉转换器虽已被广泛应用于计算机视觉任务,却未在对抗性领域自适应中研究过,本文填补了这一空白,并证明视觉转换器可直接应用于现有的对抗性领域自适应方法,以提升性能。
Apr, 2024
本研究通过提出两种攻击策略,Self-Ensemble 和 Token Refinement,充分利用了 Vision Transformers 的自注意力和组合性质来增强对抗攻击的传递性能。
Jun, 2021