本技术报告评估了一种最近开发的名为 “几何感知实例加权对抗训练” 的方法在 CIFAR-10 数据集上对抗性攻击的鲁棒性。 通过使用 PGD 攻击来计算了该方法的脆弱性,并解释了导致该方法易受攻击的原因。
Mar, 2021
提出一种新型的双重鲁棒性实例重新加权的对抗训练 (AT) 框架,通过探索分布鲁棒优化技术获得重要性权重,并在最脆弱的示例上提高鲁棒性。
Aug, 2023
通过实验,我们提出了一种新的基于实例的重加权方案,其考虑每个自然样本的易受攻击性和由对抗攻击导致的其对应的丢失信息,这对现有的加权方案表现有着显著提高,特别是对抗强白箱和黑箱攻击。
Jul, 2023
本文研究了对抗训练在提高图像分类器对白盒攻击的鲁棒性中的有效性,以及在黑盒攻击下的细微差别,并定义了鲁棒性增益的度量指标来衡量其效果。研究表明,尽管对抗训练是提高白盒场景下的鲁棒性的有效方法,但对于更现实的基于决策的黑盒攻击,则可能无法提供如此良好的鲁棒性增益。此外,即使是最小的扰动白盒攻击也可以比常规攻击更快地针对对抗训练过的神经网络收敛。
Jul, 2021
本文研究了对抗攻击和训练在公平性和准确性两个方面的影响,提出了一种公平性攻击的统一结构,并证明了不同概念的公平性攻击的等价性。研究表明,统一对抗性训练和攻击在公平性和准确性方面可以同时提高性能。
Mar, 2023
通过对输入进行敌对扰动(即人类感知不到的人工噪音),深度神经网络容易产生错误预测。迄今为止,敌对训练已成为对抗性攻击最成功的防御方式。本文聚焦于改进敌对训练以提高对抗性强度,提出了一种新的敌对训练方法 ISEAT,它通过自适应、实例特定的方式同时平滑输入和权重损失景观以增强鲁棒性,证明与现有防御方法相比,该方法具有显著的优越性。
研究表明对抗攻击是深度神经网络的潜在威胁,本文提出了一种动态网络架构 AW-Net,通过梯度规范化、分化处理和根据输入样本调整网络权重的方法,实现了同时提高准确性和鲁棒性的性能。
Jun, 2023
本文提出了一种实例自适应对抗训练技术,通过在每个训练样本周围施加特定的扰动边缘来实现更好的泛化能力和测试准确性。
Oct, 2019
本文通过经验研究,在对抗训练的模型中发现了分类的精度和稳健性存在类间差异,包括在通常的训练模型中也存在差异。同时,本文还探讨了解决这种类间差异的可能技术和方法。
Oct, 2020
我们证明了,追求对抗鲁棒性和标准泛化之间存在固有的紧张关系,训练鲁棒性模型不仅可能更加费时,也会导致标准准确性的降低,并且这种现象是由于鲁棒分类器学习了根本不同的特征表示方法。
May, 2018