对抗变焦镜头:一种新型实体世界攻击 DNNs
提出低成本的物理对抗攻击技术 ——Adversarial Laser Point,该技术利用遗传算法的方式优化激光点的物理参数来对深度神经网络进行对抗攻击,具有出色的隐蔽性和强鲁棒性。实验表明,该技术在数字和物理环境中均表现出极高的对抗干扰能力,同时生成的对抗扰动具有超越性的迁移攻击能力。
Jun, 2022
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022
本研究提出了一种新的方法 ——Adversarial Camouflage,在数字和现实情境下都能够制造出看起来合理、而且几乎不被发现的隐形对抗样本,以此来检验 DNN 的鲁棒性。
Mar, 2020
该研究提出 AutoZOOM 框架,通过自动编码器和自适应梯度估计策略,在保持攻击成功率和视觉质量的同时,显著减少了黑盒攻击中模型查询的数量,从而在对抗性稳健性方面提供了新的见解。
May, 2018
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
本文揭示了基于 LiDAR 的自动驾驶检测系统的潜在漏洞,并通过 LiDAR-Adv 的优化方法生成逃避 LiDAR 检测系统的对抗性物体,并在百度 Apollo 自动驾驶平台上测试和 3D 打印这些物体以证明实际世界中的存在性。
Jul, 2019
本文介绍了利用增强学习构建一个应用于小目标检测的自适应放大器,即 AdaZoom,并采用可变放大倍率进行自适应多尺度检测,以及完成 AdaZoom 和检测网络的协同训练。在 VisDrone2019、UAVDT 和 DOTA 数据集上进行了大量实验,验证了 AdaZoom 在不同检测网络上显著提高了性能,并在这些数据集上取得了 state-of-the-art 的表现,尤其在 Vis-Drone2019 上超过了现有方法 4.64% 的 AP。
Jun, 2021
本文提出了零阶优化的黑盒攻击方法,该方法不需要训练替代模型而直接估计目标 DNN 的梯度来生成对抗性例子,实验结果表明该攻击方法在 MNIST、CIFAR10 和 ImageNet 的数据集上与白盒攻击方法效果相当且明显优于现有的替代模型的黑盒攻击方法。
Aug, 2017
本文主要研究了利用对摄像头物理操纵的方式实施对深度神经网络的物理对抗攻击,并提出了一种迭代的攻击方法,可以使攻击不易被察觉,实现了针对 ImageNet 分类器的 49.6% 的攻击成功率。
Mar, 2019