研究对抗网络的对抗鲁棒性在不同扰动类型之间的转移,结果表明评估广泛范围的扰动大小是必要的,并建议在不同类型和大小的扰动下进行对抗防御的评估。
May, 2019
本文研究对抗样本攻击机器学习模型并提出一种新的攻击方法,证明最先进的对抗训练方法无法同时获得对 $\ell_2$ 和 $\ell_\infty$ 范数的健壮性,提出可能的解决方案及其局限性。
本研究提出了一种基于 PGD-based 的方法,该方法融合多种扰动模型来提高深度学习系统的鲁棒性,并在 MNIST 和 CIFAR10 数据集上进行了测试。
Sep, 2019
通过对敌对学习及攻击的深入探究,我们发现在敌对性训练的模型中,用微小的随机噪声扰动部分攻击样本能够破坏其误导性预测,为此我们提出了一种有效的防御方法,是通过制造更加有效的防御扰动方法,利用敌对训练降低了地面真实的局部 Lipschitzness,同时攻击所有类别,将误导的预测转换为正确的预测,这种方法在经验实验证明有效。
Jun, 2021
本文提出了一种网络权重初始化的方法,使其能够在更高噪声水平下学习,同时评估了在 MNIST 和 CIFAR10 数据集上增强对抗噪声对学习范围的影响,并通过对简单多维伯努利分布的理论结果进行研究,提出了一些关于 MNIST 数据集可行扰动范围的见解。
Mar, 2020
当前关于对抗样本的防御研究主要集中在实现对单一攻击类型的健壮性,然而,可能的扰动空间更广泛,目前无法由单一攻击类型建模。当前防御方法的关注点与攻击空间的差异性引发了对现有防御方法的可行性和评估的可靠性的质疑。在本立场论文中,我们主张研究界应该超越单一攻击健壮性,并着重介绍三个潜在方向,包括:多同时攻击健壮性、未知攻击健壮性以及我们所定义的连续自适应健壮性问题。我们提供了一个统一的框架,严格定义了这些问题设置,综合了这些领域的现有研究,并概述了开放性研究方向。我们希望我们的立场论文能够激发出更多关于多同时攻击、未知攻击和连续自适应健壮性的研究。
May, 2024
本文提出了一种实例自适应对抗训练技术,通过在每个训练样本周围施加特定的扰动边缘来实现更好的泛化能力和测试准确性。
Oct, 2019
该研究聚焦于通过对抗性训练对抗机器学习和统计模型中的对抗攻击进行防御,通过研究广义线性模型中对抗性训练估计器的渐近行为,揭示其在 $\ell_\infty$- 扰动下的极限分布,在真实参数为 0 时对 0 处有正概率的特性,进一步提出了自适应对抗性训练,该方法能够提升对 $\ell_\infty$- 扰动下的对抗性训练的性能,并进行了数值实验来展示其对稀疏恢复能力的验证和与传统对抗性训练的实际表现的对比。
Jan, 2024
本文通过半无限优化和非凸对偶理论的研究,证明对抗性训练等价于在扰动分布上的统计问题,并对此进行完整的表征。我们提出一种基于 Langevin Monte Carlo 的混合方法,可以缓解鲁棒性与标准性能之间的平衡问题,并取得了 MNIST 和 CIFAR-10 等领域最先进的结果。
Oct, 2021
本文探讨应对不同规范的对抗性攻击所产生的难题,并提供了一些理论和经验性的见解,讨论如何结合现有的防御机制来提高神经网络的鲁棒性。实验结果表明,这些新的防御机制能更好地保护神经网络不受两种规范攻击。
Mar, 2019