该研究探讨了基于灵敏度的对抗攻击和基于不变性的对抗攻击之间的根本权衡,并证明了对抗训练和可证明鲁棒模型的成效。
Feb, 2020
本文演示了对扰动型对抗样本的稳健性不仅不足以实现普遍的稳健性,而且它还会增加模型对于不变性型对抗样本的脆弱性,并呼吁一组精确的定义来对学习中的这些限制进行分类和解决。
Mar, 2019
本文研究了深度神经网络在噪声环境中的鲁棒性和不变性,提出了快速计算稀疏对抗扰动和数据增强方法,与数据之间的特征联系起来,以实现更可靠的机器学习系统。
Aug, 2022
本文探讨了神经网络对分布偏移的敏感性问题解决方案中的对抗训练,以及了解到神经网络与人类理解不同的处理方式,更进一步地研究对抗训练对于神经网络偏向形状的影响并给出可能的解释,从频率角度分析了其效果。
Mar, 2023
论文研究了神经网络模型的不确定性对于对抗样本的产生具有决定性作用,与体系结构、数据集和训练协议无关,表现为对抗误差具有与对抗扰动大小呈幂律的普适性,通过减小预测熵来提高对抗鲁棒性,在 CIFAR10 上使用神经架构搜索找到更鲁棒的架构。
Nov, 2017
在这篇论文中,我们发现通过在输入数据分布上进行语义保持的变换可以导致 Robust accuracy 的大幅度变化,而 clean accuracy 却没有变化,这表明输入数据分布可以影响神经网络的 Adversarial robustness。
Feb, 2019
本研究探讨了针对卷积神经网络的不变性敌对样本进行对抗训练的影响,发现在敌对训练时同时使用基于扰动和基于不变性的敌对样本可以取得较高的鲁棒性。
Feb, 2023
本文通过理论和实验证据表明,对于指定的输入,规定近似双射映射 $f:R^n →R^m(n≠m)$ 模型的产生了近似不连续的对抗性例子,并且这种不连续性是维数的拓扑不变性导致的。
Apr, 2023
机器学习模型因神经网络的线性特性容易受到对抗性扰动的影响,该现象不同于过拟合和非线性,但可以通过生成对抗性训练样本来减小 MNIST 数据集中 maxout 网络的误差。
Dec, 2014
提出了一种使用单独的学习类条件数据分布来执行分析合成的新型鲁棒性分类模型,其在 MNIST 数据集上对 L0,L2 和 L 无穷小扰动都具备最先进的鲁棒性,攻击结果在正常类和对抗类之间呈现明显的感知边界。
May, 2018