一组不同参数攻击的集成用于可靠评估对抗鲁棒性
在神经网络的研究中,我们开发了一种新的梯度基础的对抗攻击方法,相较于已有的攻击方法,它更可靠,可以适应广泛的对抗标准,并且在提高效率的同时,不需要进行超参数调整,这将对神经网络的鲁棒性评估做出有益的贡献。
Jul, 2019
提出了一种名为ImageNet-UA的模型鲁棒性测试框架,旨在测试模型对未遭遇过的对抗攻击的鲁棒性。该框架引入了四种新的对抗攻击,与L_inf等现有鲁棒性评估方法相比,ImageNet-UA能更好地展现模型的鲁棒性。目前的防御措施在面对未预料的攻击时提供很少的保障,期望使用更加多样化和现实的ImageNet-UA能有助于开发泛化性更好的防御措施。
Aug, 2019
深度学习领域的对抗攻击和防御是目前研究的活跃领域。本文针对防御方法进行分类,提出了不同的分类方法:通过增加特征向量的类内紧凑性和类间分隔性来提高对抗鲁棒性,减小或移除非鲁棒图像特征来提高对抗鲁棒性。通过这种重新构架话题的方式,提供了新的视角,深入探讨使网络变得更加强健的潜在因素,启发了更多的解决方案。此外,文献中有一些关于对抗防御成本问题和鲁棒性与准确性之间的权衡的论述,但我们提出的分类方法可以解决这些问题。本文提出了几项挑战,以此推动深度学习研究的进一步发展。
Oct, 2019
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
为了建立标准化的对抗性鲁棒性基准,我们考虑了图片分类任务,并引入了允许的模型限制,使用 AutoAttack 进行评估,同时提供80多种鲁棒模型的开源库,分析了鲁棒性对分布偏移、平滑性等性能的影响。
Oct, 2020
我们对自适应防御策略进行了分类并评估了最新的代表性方法,结果表明在图像分类中这些自适应防御策略没有明显的提高静态防御的水平,同时增加了推理计算。然而,我们仍相信自适应的防御策略是一个有前途的研究方向,并提出了具体的研究建议和评估步骤扩展了Carlini等人的清单。
Feb, 2022
本文提出一种名为自适应自动攻击 (Adaptive Auto Attack) 的对抗攻击防御评估方法,旨在提高测试时训练的效率和可靠性,通过自适应的初始化和在线统计抛弃策略,使其消耗远少于现有方法的迭代数,并在广泛使用的防御模型上表现出更低的鲁棒性。
Mar, 2022
提出了一种名为Cybersecurity Adversarial Robustness Evaluation(CARE)平台来全面评估集成对抗性攻击和防御的方法,旨在探讨集成防御是否能够提高模型性能和鲁棒性,对不同类型的攻击有效,并抵御不断调整的自适应攻击。
Jan, 2024