面向未知分布的对抗鲁棒性
在神经网络的研究中,我们开发了一种新的梯度基础的对抗攻击方法,相较于已有的攻击方法,它更可靠,可以适应广泛的对抗标准,并且在提高效率的同时,不需要进行超参数调整,这将对神经网络的鲁棒性评估做出有益的贡献。
Jul, 2019
提出了一种名为ImageNet-UA的模型鲁棒性测试框架,旨在测试模型对未遭遇过的对抗攻击的鲁棒性。该框架引入了四种新的对抗攻击,与L_inf等现有鲁棒性评估方法相比,ImageNet-UA能更好地展现模型的鲁棒性。目前的防御措施在面对未预料的攻击时提供很少的保障,期望使用更加多样化和现实的ImageNet-UA能有助于开发泛化性更好的防御措施。
Aug, 2019
深度学习领域的对抗攻击和防御是目前研究的活跃领域。本文针对防御方法进行分类,提出了不同的分类方法:通过增加特征向量的类内紧凑性和类间分隔性来提高对抗鲁棒性,减小或移除非鲁棒图像特征来提高对抗鲁棒性。通过这种重新构架话题的方式,提供了新的视角,深入探讨使网络变得更加强健的潜在因素,启发了更多的解决方案。此外,文献中有一些关于对抗防御成本问题和鲁棒性与准确性之间的权衡的论述,但我们提出的分类方法可以解决这些问题。本文提出了几项挑战,以此推动深度学习研究的进一步发展。
Oct, 2019
本文提出两个方法以提高PGD攻击的效率,进而结合现有方法构成一个全新的攻击集合,用于测试对抗鲁棒性,并在50多个模型上进行了测试,发现一些已经被攻破的防御机制。
Mar, 2020
本篇研究通过分类对抗性攻击和防御方法,提出三类半定界数理优化问题,即对抗(再)训练、正则化方法和认证防御,并调查了最近的研究成果和挑战以及展望未来的发展。
Jul, 2020
针对当前神经网络抵御对抗攻击的能力较弱的情况,提出了一种新的损失函数,从而提高了19种不同状态下的神经网络的抗攻击能力。同时发现目前不良攻击行为只能诱发少量不同类别的误分类,过于自信或不自信都会影响对模型鲁棒性的准确评估。
May, 2021
本文研究了对抗训练中的类别鲁棒性问题,提出了一种基于温度的PGD攻击方法,并对训练和推断阶段进行了改进,以降低类别鲁棒性差异。实验结果表明,该方法可以取得更高的攻击成功率。
May, 2021
本研究探讨了基于域一般化的经验和认证鲁棒性之间的相互影响,并发现两种鲁棒性均适用于未知的数据域。同时我们也证明,在医学应用中,对抗性增强显著提高了鲁棒性的泛化能力,对数据准确性影响不大。
Sep, 2022