对抗训练的规范不可知鲁棒性
本文演示了对扰动型对抗样本的稳健性不仅不足以实现普遍的稳健性,而且它还会增加模型对于不变性型对抗样本的脆弱性,并呼吁一组精确的定义来对学习中的这些限制进行分类和解决。
Mar, 2019
针对对抗样本的防御,如对抗训练,通常针对单个干扰类型(例如小的l∞-噪声),对于其它类型的干扰,这些防御没有保障,甚至会增加模型的脆弱性。我们的目标是了解这种鲁棒性取舍背后的原因,并训练同时对多种扰动类型具有鲁棒性的模型。
Apr, 2019
本篇研究通过分类对抗性攻击和防御方法,提出三类半定界数理优化问题,即对抗(再)训练、正则化方法和认证防御,并调查了最近的研究成果和挑战以及展望未来的发展。
Jul, 2020
探索对抗训练的极限,发现了通过结合更大的模型、Swish/SiLU激活函数和模型权重平均化可以训练出强健模型,同时在CIFAR-10和CIFAR-100数据集上有了大幅度的提升。
Oct, 2020
本文提出一种基于加权最小化风险优化方法的防御策略,通过优先考虑更易受攻击的样本,可以在不均衡攻击下实现防御,并通过实验证明了该模型在非均衡攻击下取得了明显的改进,而在均衡攻击下平均正确率并未显著下降。
Oct, 2020
本文提出了一种基于几何特性的极值范数对抗训练(E-AT)方法,不同于其他方法的是,它有效地提供了一种多范数的鲁棒性,且其训练时间仅为其他多范数对抗训练方法的三分之一,E-AT方法在ImageNet的单个epoch和CIFAR-10的三个epoch的训练下,只需要一种$l_p$对抗模型就可以将其传播到多种$l_p$威胁模型并显著提高多个$l_p$鲁棒模型在CIFAR-10上的最新技术水平。
May, 2021
该研究解决了在对抗攻击中对深度神经网络(DNN)模型的鲁棒性评估的问题,尤其是利用L0范数生成对抗样本的挑战。提出了一种新颖、可扩展且有效的方法,能够通过最少特征调整生成对抗样本,从而更好地评估DNN对这些扰动的防御能力。研究表明,这种方法能够更精准地揭示DNN的潜在弱点,提升鲁棒性评估的准确性。
Aug, 2024