利用多个加密修补嵌入阻碍对抗性攻击
本文提出了一种基于部分遮挡图像的防御方法,可在 CIFAR-10、Fashion MNIST 和 MNIST 数据集上提供对一定大小区块攻击的安全保障。
Apr, 2020
提出在高分辨率图像上实现高可证明鲁棒性的认证防御方法,减少敌对区域的搜索开销和过滤预测噪声,从而通过利用重要神经元的本地化性质增强了认证准确性。
Oct, 2021
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
我们提出了一种防御机制,利用聚类技术 DBSCAN 来分离异常图像片段,并通过三阶段流程对敌对噪声进行定位和减轻,进而中和其效果。该防御机制在多个模型和数据集上验证,证明其在对抗性贴片攻击中的有效性,显著提高了准确性。
Feb, 2024
通过利用预训练模型和最新的高效微调技术,在 ImageNet-1k 分类上提出了基于关键字的防御模型繁衍方法,并强调了在边缘设备上部署基于关键字的模型的可行性。
Nov, 2023
本文提出了一种增强的基于对抗样本攻击方式,并探索了不依赖于网络输出数量的决策性基于修补程序的攻击方法,使用称为 DevoPatch 的差分进化算法。实验证明 DevoPatch 优于现有方法,在给定查询预算内攻击成功率更高。
Jul, 2023
提出了防御性贴片生成框架以帮助模型更好地利用全局和局部特征来提高对噪声的抵御能力,这些防御性贴片具有广泛的适用性,能够提高在数字和实物世界中对抗性和破坏性稳健性 20%以上的准确性。
Apr, 2022
近期,在深度模型的推断计算方面取得了很多进展,这些方法可以减少深度模型的计算需求和功耗。我们展示了这些模型容易受到普适性对抗贴片攻击的影响,攻击者通过优化一个贴片,将其粘贴到任意图像上可以增加模型的计算量和功耗。我们运行实验使用了三种不同的高效视觉转换器方法,显示在某些情况下,攻击者只需将一个只占图像面积的 8% 的贴片粘贴上即可将计算量增加到最大限度。同时我们还展示了标准对抗性训练防御方法可以减少攻击的成功率。我们相信为降低深度模型的功耗,未来需要采用自适应高效的方法,希望我们的论文可以鼓励研究人员研究这些方法的强韧性,并开发更好的防御方法来对抗这种攻击。
Oct, 2023
最近的研究表明,深度神经网络对于对抗性攻击很容易受到攻击,而精心训练的样本或补丁可以欺骗神经网络检测器或人类视觉感知。为了解决这个问题,本文提出了一种名为潜在扩散补丁(LDP)的新型对抗性补丁方法,首先设计了一个预训练的编码器将自然图像压缩到具有关键特征的特征空间,然后使用上述特征空间训练扩散模型,最后通过图像去噪技术探索预训练扩散模型的潜在空间,通过扩散模型的强大的自然能力对补丁和图像进行改进,使它们更容易被人类视觉系统接受。实验结果在数字和物理世界中均表明,LDP 在视觉主观评分上达到了 87.3%,同时仍然保持有效的攻击能力。
Dec, 2023