本文提出了一种名为 LogoStyleFool 的新型攻击框架,通过将一个图标添加到干净的视频中,解决了将大量的风格化干扰添加到所有像素中降低视频的自然性和受到检测的问题,并通过分离攻击为三个阶段以及在强化学习之后添加一个优化阶段来解决基于补丁的视频攻击在目标攻击方面的局限性。实验证明,LogoStyleFool 在攻击性能和语义保留方面优于三种最先进的基于补丁的攻击方法,并且在对抗两种现有的基于补丁的防御方法时仍然保持其性能。我们相信本研究对于增加安全社区对这种亚区域风格转换攻击的关注具有积极意义。
Dec, 2023
本文提出了一种主动防御框架来降低恶意用户控制的面部操纵模型的性能,基本思路是在操纵之前向目标面部数据注入不可察觉的毒液。
Dec, 2021
最近扩展模型对图像生成的真实性产生了深远的影响,但这引发了版权侵权的担忧。为了解决这个问题,本研究开发了一种视觉改进的保护方法,既保留了保护能力,又提高了受保护图像的质量。
Mar, 2024
本研究通过在训练数据中添加微不可见的对抗干扰因素,破坏基于深度神经网络的人脸检测器的质量,从而防止个人受到最近利用 AI 合成的假面孔可能造成的负面社会影响。我们在白盒、灰盒和黑盒环境下描述了攻击方案,并在若干数据集上实证展示了我们的方法破坏最先进的基于 DNN 的人脸检测器的有效性。
Jun, 2019
该研究介绍了使用深度学习的脸部修改系统以及生成 Deepfakes 图像的问题,进而探讨了生成对抗性攻击的方式来攻击这些系统,同时提出了灰盒攻击下的混叠频率的对抗攻击,并给出了代码实现。
Mar, 2020
这篇论文介绍了一种新的图像编辑方法,称为模仿编辑,通过使用图像参考来帮助用户更方便地发挥创造力,提出了一种生成训练框架 MimicBrush,能够自主学习图像间的语义对应关系,实验证明了该方法在各种测试案例中的有效性和优越性,并构建了一个用于进一步研究的基准。
Jun, 2024
基于图像输入的视觉语言模型(VLM)存在图像劫持问题,本研究发现了在运行时控制生成模型的对抗性图像劫持,并提出了一种名为 Behavior Matching 的通用方法来创建这种图像劫持,通过对 LLaVA-2 模型进行攻击实验发现,各种攻击方式成功率均在 90% 以上,这些发现对于基础模型的安全性提出了严重的担忧。
Sep, 2023
为了解决文本到图像扩散模型对抗攻击的问题,本研究提出了 MetaCloak 方法,利用元学习框架和附加的转换采样过程来解决双层毒化问题,从而产生可转移和鲁棒的扰动。通过对 VGGFace2 和 CelebA-HQ 数据集的大量实验证明,MetaCloak 优于现有方法,能够在黑盒方式下成功欺骗 Replicate 等在线训练服务,展示了 MetaCloak 在实际场景中的有效性。
Nov, 2023
本文提出了一种基于学习的视频样式化方法,可以将风格从少数几个所选关键帧传播到序列的其余部分,实现了实时推理和时态一致性等优点。
Apr, 2020
基于对对抗性图像分类模式的观察,我们提出一种用于盗取模型的方法,结合时间侧信道和对抗性图像分类,以指纹识别多个著名的卷积神经网络和 Vision Transformer 架构,该方法可在减少查询次数的同时保持高准确率。
Feb, 2024