对抗伪装:利用自然风格隐藏物理世界攻击
本文提出了双重关注抑制攻击 (Dual Attention Suppression,DAS) 来对抗深度学习模型中的物理对抗性样本,该方法具有模型无关性和人类特定模式,在数字和实体世界中均进行了广泛实验,表明该方法优于当前最先进的对抗性攻击方法。
Mar, 2021
本研究提出一种基于差分演化的对抗性伪装方法 (DE_DAC),旨在同时欺骗人眼和目标检测器。该方法包含两个阶段,分别对全局和局部纹理进行优化,从而达到伪装目的。其中,差分演化算法用于搜索攻击对象的最优区域。实验结果表明,该方法在多个场景和物体上能够良好地平衡人眼和目标检测器的伪装效果。
Oct, 2022
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
本文提出了 Differentiable Transformation Attack (DTA) 框架,基于 Differentiable Transformation Network (DTN) 生成具备动态适应性的伪装图案,成功地使 3D 车辆在物理世界和虚拟现实环境中逃避最先进的目标检测模型。
Mar, 2022
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022
本研究提出了一种对深度学习人脸识别模型进行针对性攻击的新型隐蔽物理掩码攻击方法,通过对抗性风格优化,在风格掩码内隐藏对抗扰动,实现了强大而隐蔽的对抗风格掩码生成,通过广泛的实验验证了该方法的有效性和可移植性。
Sep, 2023
本论文使用 “梯度类激活图”(GradCAM) 数据分析了深度学习中的 “VGG-16” 网络在遭受对抗性干扰和高斯噪声的影响下的行为偏差,并针对这种情况提出了基于噪声加权类激活图的新算法 “NoiseCAM”,该算法不易受到对抗性干扰的干扰。研究结果表明,NoiseCAM 的整体性能优于行为偏差建模方法,可以提供一种有用的工具来防御深度神经网络的某些对抗攻击。
Mar, 2023
本研究介绍了一种新颖的神经渲染方法,特别适用于对抗性伪装,采用广泛的三维渲染框架。我们的方法名为 FPA,通过忠实地模拟光照条件和材质变化,确保对三维目标纹理的细致而逼真的表达。为了实现这一目标,我们采用了一种生成方法,从扩散模型中学习对抗性的模式。这涉及到结合特殊设计的对抗性损失和隐蔽约束损失,以确保物理世界中伪装的对抗性和隐蔽性。此外,我们展示了所提出的伪装在贴纸模式下的有效性,证明了其能够在不损害对抗性信息的情况下覆盖目标。通过实证和物理实验,FPA 在攻击成功率和可转移性方面展现出强大的性能。此外,设计的贴纸模式伪装结合隐蔽约束可以适应环境,产生多样的纹理风格。我们的研究结果突出了 FPA 方法在对抗性伪装应用中的多样性和功效。
Feb, 2024
该论文提出了一种以非刚性变形为特点的新型物理对抗样本,名为 “对抗 T 恤”,用于欺骗人物探测器,并展示了这种方法在数字和物理世界中的攻击成功率。
Oct, 2019
本文研究通过不同攻击方法,包括黑盒攻击,来制造可以用于在不同环境中欺骗系统的扰动,并展示可靠的物理对抗攻击可以使用不同的方法进行执行,同时也可以降低扰动的可察觉程度。该发现强调了即使在黑盒情况下,需要通过可行的方法保护 DNN 的需求,同时也为使用对抗攻击增强原始训练数据的方法提供了基础。
Feb, 2023