使用白盒攻击和黑盒攻击逃避深度伪造图像检测器
本研究利用具有解离表示的 StyleGAN 模型,提出了一种在特征空间中搜索对抗潜在编码的框架,可通过文本提示或参考图像来引导搜索,并采用基于元学习的优化策略,在保持不被人类发现的同时成功欺骗法医人脸识别器的同时,成功生成了以指定属性集为真实的对抗伪造面部。
Jun, 2023
探索合成人脸图像检测的实验研究。我们收集了一个称为 FF5 的数据集,包括近期的扩散模型,发现一个简单的模型在区分合成和真实图像方面能够达到近乎完美的准确率。该模型通过使用数据增强来处理常见的图像失真(降低分辨率、压缩)。此外,我们通过简单的 YOLO 架构模型识别了合成图像被修复到真实图像中的部分篡改,并定位了篡改区域。然而,该模型存在易受对抗性攻击的问题,并且对未见过的生成器无法泛化。我们还测试了最近的最先进方法在经过微调的 StabilityAI 的 Stable Diffusion 图像生成器上无法泛化来检测由新一代生成器产生的图像。
Jun, 2024
本研究使用深度强化学习与卷积神经网络相结合,设计了一种新的深度伪造检测算法,通过统计每张测试图像的各种增强方法的分类分数来检测深度伪造的图片,实验证明该方法在跨数据集的泛化性能方面优于现有的模型,并获得最先进的性能。
Apr, 2022
该研究论文介绍了如何在低失真路径上发起黑盒攻击,以提高攻击效率和敌对图像的感知质量,并在真实世界系统上进行了实验,验证了该方法在基准分类任务和生物识别及取证等关键应用中的有效性。
Feb, 2019
提出了一种生成新型对抗性锐化掩模以发动黑盒反取证攻击的方法,通过注入这些扰动,DeepFakes 在展示愉悦的锐化视觉效果的同时能够实现高强度的反取证性能,成功干扰了先进的 DeepFake 检测器,并且与现有的 DeepFake 反取证方法相比,所提出的方法渲染出的反取证 DeepFakes 具有显著的视觉优势。
Dec, 2023
本研究通过在训练数据中添加微不可见的对抗干扰因素,破坏基于深度神经网络的人脸检测器的质量,从而防止个人受到最近利用 AI 合成的假面孔可能造成的负面社会影响。我们在白盒、灰盒和黑盒环境下描述了攻击方案,并在若干数据集上实证展示了我们的方法破坏最先进的基于 DNN 的人脸检测器的有效性。
Jun, 2019
使用合成数据,基于计算机视觉,通过卷积神经网络和可解释的 AI 技术实现对人眼难以区分真实照片和 AI 生成的图片的分类,最终建立的 CIFAKE 数据集对于未来的研究工作提供了有价值的资源。
Mar, 2023
利用机器学习技术来区分 AI 生成的合成图像和真实图像,通过优化深度学习模型和对比实验结果表明,深度学习模型可以更准确地识别合成图像,进一步推动数字媒体可信度及 AI 生成内容的伦理和技术探索。
Jan, 2024