通过面向转换的对抗性人脸防御,抵御基于 GAN 的深度伪造攻击
该论文提出 AdvFaces,一种基于生成对抗网络 (GAN) 的自动化方法,用最小的扰动生成看似合法但实际上能够欺骗最新人脸识别系统的假冒人脸或模糊真正主题的攻击性人脸图像。
Aug, 2019
本研究以黑盒方式对当今最先进的 DeepFake 检测方法进行批判性漏洞研究,旨在提高其鲁棒性,包括对抗攻击和使用通用对抗样本进行更容易的攻击。该研究还在 DeepFake 检测挑战赛的获奖入口上进行了评估,并证明了它们可以很容易地被跨模型攻击所绕过。
Nov, 2020
该研究介绍了使用深度学习的脸部修改系统以及生成 Deepfakes 图像的问题,进而探讨了生成对抗性攻击的方式来攻击这些系统,同时提出了灰盒攻击下的混叠频率的对抗攻击,并给出了代码实现。
Mar, 2020
在本文中,我们使用基于 GAN 的开源软件从 VidTIMIT 数据库的视频生成 Deepfake 视频,调整不同的训练和混合参数对生成视频的质量有显著影响,并表明当前的人脸识别系统和现有的检测方法都很容易受到 Deepfake 视频的干扰。
Dec, 2018
本文讲述了近年来视频技术的进步使得生成假视频变得比以往更容易,同时也提到人工智能生成的 Deepfake 视频可以通过对抗性修改来欺骗现有的检测器并且具有实际威胁。研究者在本文中提出了可以误导 DNN 检测器认为 Deepfake 视频为真实的白盒和黑盒攻击方案。
Feb, 2020
本研究利用具有解离表示的 StyleGAN 模型,提出了一种在特征空间中搜索对抗潜在编码的框架,可通过文本提示或参考图像来引导搜索,并采用基于元学习的优化策略,在保持不被人类发现的同时成功欺骗法医人脸识别器的同时,成功生成了以指定属性集为真实的对抗伪造面部。
Jun, 2023
本研究通过在训练数据中添加微不可见的对抗干扰因素,破坏基于深度神经网络的人脸检测器的质量,从而防止个人受到最近利用 AI 合成的假面孔可能造成的负面社会影响。我们在白盒、灰盒和黑盒环境下描述了攻击方案,并在若干数据集上实证展示了我们的方法破坏最先进的基于 DNN 的人脸检测器的有效性。
Jun, 2019