我们对自适应防御策略进行了分类并评估了最新的代表性方法,结果表明在图像分类中这些自适应防御策略没有明显的提高静态防御的水平,同时增加了推理计算。然而,我们仍相信自适应的防御策略是一个有前途的研究方向,并提出了具体的研究建议和评估步骤扩展了 Carlini 等人的清单。
Feb, 2022
本论文提出了一种通过量化预训练神经网络的局部中间响应和辅助 softmax 层的置信度得出输入的对抗样本的测试时间对抗样本例探测器,并通过非迭代输入样本剪辑来减弱非相关特征,从而提高了 15 种对抗扰动水平下的平均性能,其中快速梯度符号法(FGSM)提高了 55.33%,而基本迭代法(BIM)和投影梯度法(PGD)分别提高了 6.3%。
Nov, 2022
本文研究了有关深度学习的两个问题:对抗攻击与深度学习的泛化能力。以 Neural Tangent Kernel(NTK)为主要理论,探究有限宽度下的 kernel learning 与 lazy training,结果表明标准训练与对抗训练会有不同的 NTK,最终可以得到一个在 CIFAR-10 数据集上具有 76.1% 鲁棒性的分类器。
Oct, 2022
本文提出了一种简单的方法,在没有模型训练过程的任何假设的情况下,通过在测试数据点上执行不同的数据增强并通过最小化平均输出分布的熵来适应模型参数,从而提高模型的鲁棒性。该方法在多个基准测试中都表现出色,并在 ImageNet-C、ImageNet-R 和 ImageNet-A 分布偏移基准测试中实现了最先进的结果。
Oct, 2021
通过在中间层的模型中添加随机噪声,我们提出了一种简单轻量级的防御方法,可以有效增强模型对黑盒攻击的鲁棒性,并且对准确率影响较小。
Oct, 2023
该研究提出了一种测试方法以识别弱攻击和防御评估,为了增强透明和信心,将攻击单元测试作为未来强度评估的重要组成部分。
Jun, 2022
机器学习中的敌对攻击威胁不断增加,研究展示了通过张量化和低秩分解结合的方法作为抵御策略,有效提高鲁棒性,超越当前依赖张量分解的防御策略。
Sep, 2023
本文提出一种可扩展的用于构造对抗样本的方法,通过建立抵抗对抗扰动和加法噪声之间的联系,提出了一种训练策略,并在 MNIST 等数据集上进行了评估。
Sep, 2018
深度学习领域的对抗攻击和防御是目前研究的活跃领域。本文针对防御方法进行分类,提出了不同的分类方法:通过增加特征向量的类内紧凑性和类间分隔性来提高对抗鲁棒性,减小或移除非鲁棒图像特征来提高对抗鲁棒性。通过这种重新构架话题的方式,提供了新的视角,深入探讨使网络变得更加强健的潜在因素,启发了更多的解决方案。此外,文献中有一些关于对抗防御成本问题和鲁棒性与准确性之间的权衡的论述,但我们提出的分类方法可以解决这些问题。本文提出了几项挑战,以此推动深度学习研究的进一步发展。
Oct, 2019
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019