针对对抗样本的防御,如对抗训练,通常针对单个干扰类型(例如小的 l∞- 噪声),对于其它类型的干扰,这些防御没有保障,甚至会增加模型的脆弱性。我们的目标是了解这种鲁棒性取舍背后的原因,并训练同时对多种扰动类型具有鲁棒性的模型。
Apr, 2019
本文提出了一种技术,能够将深度学习分类器的防御性能从较小的前馈神经网络拓展到更广泛的网络结构,同时采用非线性随机投影的方式进行训练,并通过级联模型进一步提高分类器的鲁棒性能。在 MNIST 和 CIFAR 数据集上进行实验,证明了该方法在可证明的抗干扰错误率上有着明显的提升。
May, 2018
提出了一种使用单独的学习类条件数据分布来执行分析合成的新型鲁棒性分类模型,其在 MNIST 数据集上对 L0,L2 和 L 无穷小扰动都具备最先进的鲁棒性,攻击结果在正常类和对抗类之间呈现明显的感知边界。
本研究提出了一种基于 PGD-based 的方法,该方法融合多种扰动模型来提高深度学习系统的鲁棒性,并在 MNIST 和 CIFAR10 数据集上进行了测试。
Sep, 2019
研究了神经网络分类器在安全关键系统中的应用,提出了一种对 ReLU 网络的正则化方案,使分类器的鲁棒性得到提升,并在实验中取得了较好的效果。
Oct, 2018
本文主要讨论了对抗样本的普遍性以及针对此类攻击的防御方法,并着重探讨了局部鲁棒性认证的实际应用和相关价值。
Oct, 2023
该研究提出了一种概率证明框架 PROVEN,用于验证神经网络在输入加噪时的鲁棒性,可证明分类器的 top-1 预测在受限的 Lp 范数扰动下不会发生改变,证书是基于现有的神经网络鲁棒性验证框架,该方法在 MNIST 和 CIFAR 神经网络模型的实验中取得了 75% 的提升。
Dec, 2018
对 ReLu 神经网络进行梯度自由攻击可以提供对抗性攻击下的网络鲁棒性评估,相比于之前的最先进方法,可以更紧确地估计网络鲁棒性
Mar, 2019
研究了在 $l_r$-norm 测量下带有敌对干扰的线性假设的敌对经验 Rademacher 复杂性的上限和下限,扩展了已有的结果并提供了更精细的维度依赖性分析,并在单个 ReLU 单元和具有一层隐藏层的前馈神经网络中提供了 Rademacher 复杂度上下界。
Apr, 2020
提出了一种双重质量评估法来评估深度神经网络算法的鲁棒性,分析了存在的问题,并揭示了当前网络和防御在各个鲁棒性级别上的脆弱性。
Jun, 2019