利用分布鲁棒优化的方式解决神经网络在对抗攻击下的鲁棒性问题,通过在 Wasserstein ball 内惩罚扰动数据分布的方式,通过我们提出的训练过程,能够实现对训练数据的最坏情况扰动而获得中等水平的健壮性,同时具有较小的计算和统计成本,并且我们的统计保证使我们能够有效地验证整体损失的健壮性,对于感知扰动,我们的方法与启发式方法相匹配或更好。
Oct, 2017
本文提出一种基于 Wasserstein 的分布鲁棒性优化方法,旨在通过同时应用本地和全局正则化,将原始分布与最具挑战性的分布相结合,提高模型的建模能力,解决深度神经网络在实际应用中对抗性示例和分布偏移等问题。实验结果表明,该方法在半监督学习、领域适应、领域泛化和对抗机器学习等各领域中均明显优于现有的正则化方法。
Mar, 2022
本文提出了一种解决最优对抗数据分布的方法 —— 分布式对抗攻击(DAA),通过在潜在数据分布空间上进行优化,使攻击样本具有更好的泛化性,实验表明其在对抗训练的模型上的攻击效果优于其他对抗攻击方法。
Aug, 2018
对 ReLu 神经网络进行梯度自由攻击可以提供对抗性攻击下的网络鲁棒性评估,相比于之前的最先进方法,可以更紧确地估计网络鲁棒性
Mar, 2019
该研究论文针对深度模型易受到小型攻击的问题,提出了在 Wasserstein 距离约束下的投影梯度攻击算法和有效的优化算法。该算法不仅收敛更快,而且生成更强的攻击模型,从而提高了模型的鲁棒性。
Aug, 2020
本文提出了第一个具有认证鲁棒性的防御网络,以抵御基于 Wasserstein 度量的对抗攻击,并证明该防御方法在 MNIST 和 CIFAR-10 数据集上能显著提高精度。
Oct, 2019
本研究探讨了基于域一般化的经验和认证鲁棒性之间的相互影响,并发现两种鲁棒性均适用于未知的数据域。同时我们也证明,在医学应用中,对抗性增强显著提高了鲁棒性的泛化能力,对数据准确性影响不大。
Sep, 2022
在神经网络的研究中,我们开发了一种新的梯度基础的对抗攻击方法,相较于已有的攻击方法,它更可靠,可以适应广泛的对抗标准,并且在提高效率的同时,不需要进行超参数调整,这将对神经网络的鲁棒性评估做出有益的贡献。
Jul, 2019
这篇学术论文深入探讨了针对图像分类任务中使用的深度神经网络(DNN)的对抗性攻击,并调查了旨在增强机器学习模型鲁棒性的防御机制。研究聚焦于理解两种主要攻击方法的影响:快速梯度符号法(FGSM)和 Carlini-Wagner(CW)方法。该文献提出防御蒸馏作为一种抵御 FGSM 和 CW 攻击的防御机制,并使用 CIFAR-10 数据集对其进行评估。虽然该提出的防御技术在抵御 FGSM 等攻击方面表现出有效性,但依然易受到更复杂的技术,如 CW 攻击的影响。通过严格的实验和分析,该研究为对 DNNs 的对抗性攻击的动态以及防御策略的有效性提供了深入见解。
Apr, 2024
在图像分类中,基于 Wasserstein 距离的威胁模型可以成功攻击传统 CIFAR10 模型,并证明 PGD-based 的对抗训练可以提高对抗精度,进一步开辟了对抗鲁棒性研究的新方向。
Feb, 2019