高效决策型黑盒补丁攻击
通过像素级别的操作产生黑盒攻击算法,并通过放大因子和项目核来处理像素的梯度溢出,将该方法用于梯度攻击算法的所有类别中,显著提高了对防御模型和一般模型的攻击成功率。
Jul, 2020
PatchAttack 是一种基于纹理字典和增强学习的有效的图像对抗攻击方法,可以在图像中超级位置化小型纹理贴片从而成功诱导图像分类错误,即使在针对性攻击的情况下仅更改 3%至 10%的图像。
Apr, 2020
通过将输入图像分成多个块,对每个块进行去噪并重构图像来提高深度神经网络对抗攻击的鲁棒性,在灰盒测试方案下,该方法比现有技术提高了 19.7% 的准确度,并且在黑盒测试方案下具有可比拟的表现,在白盒测试方案下取得 34.4% 的准确率,这是最近研究中没有出现的。
Feb, 2018
本文针对深度学习模型的脆弱性与展开的攻击方式,研究了基于模型决策的稀疏攻击,提出了 SparseEvo 算法,并将其应用于卷积深度神经网络和视觉 Transformer 等模型上进行评估。SparseEvo 与之前的算法相比具有更高的攻击效率,但仍需要进一步探究,以增强模型安全性。
Jan, 2022
本文提出了 DPatch,一种黑盒子对现代计算机视觉系统(如 Faster R-CNN 和 YOLO)的基于敌对的黑盒贴片攻击。与原始的敌对贴片只操纵图像级分类器不同,DPatch 同时攻击边界框回归和对象分类以禁用它们的预测,具有非常高的转移性且实践性强。
Jun, 2018
本文旨在评估最先进的人脸识别模型在基于决策的黑盒攻击环境下的鲁棒性能,并提出一种新的进化攻击算法以减少搜索空间维度,实验结果表明该方法能够在较少的查询次数内诱导输入的最小扰动,并成功地用于攻击一个真实的人脸识别系统。
Apr, 2019
本文提出了一种利用微小的扰动来攻击神经网络的方法,只需要改变其中一个像素,将微分进化算法引入黑盒攻击,生成有效的对抗样本,并探索其在评估网络健壮性方面的应用。
Oct, 2017
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
本研究提出了一种基于扩散贴片攻击方法(DPAttack)的物体检测对抗攻击,通过对小部分像素进行扰动,成功地欺骗了大多数物体检测器,并在 Alibaba-Tsinghua 对抗性目标检测挑战中获得了第二名。
Oct, 2020