3D 对抗性标志能否遮蔽人类?
本文提出了一种利用 3D 建模技术生成的伪装纹理,来制作能够有效规避多角度人体检测器的伪装服装,实验结果表明这类服装具有较高的攻击成功率。
Jul, 2023
本文提出了一种叫做 meshAdv 的方法,用于生成具有丰富形状特征但纹理变化最小的物体的 “对抗性 3D 网格模型”。使用可微渲染器进行对象的形状和纹理的操作,可以有效地攻击分类器和物体探测器,并在不同视角下进行攻击评估,同时设计了一个管道以对具有未知渲染参数的光真实渲染器进行黑盒攻击。
Oct, 2018
提出了 Adversarial Texture 技术,应用于制作物理世界中可以欺骗人物探测器的衣着。使用 Toroidal-Cropping-based Expandable Generative Attack(TC-EGA)方法进行生成。
Mar, 2022
本文提出了一种生成通用三维对抗目标的方法,用以干扰自动驾驶系统中激光雷达探测器,这一方法成功率高达 80%,并开展了一些防御研究,旨在建立更安全可靠的自动驾驶系统。
Apr, 2020
本文旨在开发一种更可靠的技术,能够对商业系统进行端到端的对抗性鲁棒性评估,其中采用拟人面部上的精细拓扑的对抗性纹理 3D 网格可欺骗黑盒识别模型并回避防御机制,详尽的数码和物理实验证明了该方法的有效性,包括三种识别 API、四种反欺诈 API、两种流行的手机和两种自动门禁系统。
Mar, 2023
通过设计一种名为 TT3D 的新型框架,可以从少量多视图图像中快速重建为可转移的针对性的 3D 纹理网格,该方法不仅展示出卓越的跨模型转移能力,而且在不同的渲染和视觉任务中保持可观的适应性,此外,通过 3D 打印技术在真实世界中生成的 3D 对抗样本也得到了鲁棒的验证。
Dec, 2023
本文提出了一种名为 LogoStyleFool 的新型攻击框架,通过将一个图标添加到干净的视频中,解决了将大量的风格化干扰添加到所有像素中降低视频的自然性和受到检测的问题,并通过分离攻击为三个阶段以及在强化学习之后添加一个优化阶段来解决基于补丁的视频攻击在目标攻击方面的局限性。实验证明,LogoStyleFool 在攻击性能和语义保留方面优于三种最先进的基于补丁的攻击方法,并且在对抗两种现有的基于补丁的防御方法时仍然保持其性能。我们相信本研究对于增加安全社区对这种亚区域风格转换攻击的关注具有积极意义。
Dec, 2023
通过利用光学噪声攻击 3D 人脸识别系统,该研究设计了端到端的攻击算法,成功地攻击了基于点云和深度图的 3D 人脸识别算法,变形不可见且需要比先前的物理攻击更少的扰动。
May, 2022
本文针对深度神经网络生成对抗样本的问题展开了研究,提出了针对 3D 物理性质改变的对抗样本生成方法,并通过在 2D 输入图像前增加可渲染模块的方式,成功地将对抗扰动提升到物理空间,检验了所设计的方法的有效性。
Nov, 2017