通过多样化训练提高集合模型的对抗鲁棒性
该论文提出了一种新的方法,通过探索个体网络之间的交互来提高集成模型的抗干扰性,通过定义一种新的集成多样性的概念来在对抗性情境中促进网络多样性,并演示了一种适应性的多样性促进正则化器,以提高集成的鲁棒性。该方法在各种数据集上取得了良好的实验效果,同时保持了在正常情况下达到最新水平的精度。
Jan, 2019
本文研究了利用多样的专业 CNNs 集成对黑盒对抗实例检测的影响,并加强白盒对抗攻击的生成,证明了不同专业集成的多样性如何减轻黑盒和白盒对抗示例的风险,并通过 MNIST 和 CIFAR-10 等实验证明了使用该集成可以检测大部分已知的黑盒对抗实例,从而显著降低敌人的风险率,但会在一定程度上增加干净样本的风险率。此外,相对于普通 CNN 和普通 CNN 集成,我们展示了集成生成白盒攻击的成功率显著下降,突显了集成中多样性对于开发更健壮模型的有益作用。
May, 2020
研究发现,针对图像分类的 CNN 模型存在重叠的对抗性漏洞,DVERGE 通过提取非鲁棒特征并使对抗性漏洞多样化,实现了针对转移攻击的高鲁棒性。
Sep, 2020
通过对对抗样本的数据增广训练神经网络模型,以提高模型的抗干扰性,并发现通过将小型模型构成的集成模型一起进行对抗训练相比使用单个大模型的训练更有效。而重点在于对整个集成模型的对抗训练,而不是只对每个模型进行对抗训练。
Nov, 2018
该研究论文探讨了对抗性样本及训练,以及如何生成更强的对抗性样本以提高鲁棒性,介绍了集成对抗性训练技术,并表明在 ImageNet 数据集上应用该技术可以显著提高模型的鲁棒性。
May, 2017
本文阐述了集成学习的一些基本概念,研究了如何优化集成学习的多样性来对抗敌对攻击,并提供了一些算法来学习如何生成高精度的集成预测。
Aug, 2019
通过降低攻击的可转移性,我们的研究试图增强集成模型的多样性,特别关注在曲率的影响下训练多个更多样且具有低曲率的网络模型,从而提高对各种攻击的鲁棒性。
Mar, 2024
通过使用动态组合选择技术,该研究提出了一种在模型级别上利用 Dirichlet 分布和多样性约束构建替代集成模型空间的方法,以保护模型免受白盒攻击并提高鲁棒性,同时结合动态和多样性特性,实现了显著的鲁棒性结果而不损害准确性。
Aug, 2023