本文研究了利用多样的专业 CNNs 集成对黑盒对抗实例检测的影响,并加强白盒对抗攻击的生成,证明了不同专业集成的多样性如何减轻黑盒和白盒对抗示例的风险,并通过 MNIST 和 CIFAR-10 等实验证明了使用该集成可以检测大部分已知的黑盒对抗实例,从而显著降低敌人的风险率,但会在一定程度上增加干净样本的风险率。此外,相对于普通 CNN 和普通 CNN 集成,我们展示了集成生成白盒攻击的成功率显著下降,突显了集成中多样性对于开发更健壮模型的有益作用。
May, 2020
提出了一种新的集成方法,用于检测和分类最新攻击算法生成的对抗样本,包括 DeepFool 和 C&W,该方法通过训练集成成员对随机良性样本的分类误差较低同时在训练分布之外的样本上最小化一致性来工作。结果表明该方法能够抵抗白盒和黑盒攻击,并且在 MNIST 数据集上表现良好。
Dec, 2017
通过对对抗样本的数据增广训练神经网络模型,以提高模型的抗干扰性,并发现通过将小型模型构成的集成模型一起进行对抗训练相比使用单个大模型的训练更有效。而重点在于对整个集成模型的对抗训练,而不是只对每个模型进行对抗训练。
Nov, 2018
提出一种基于多样性促进学习的深度集成方法,提高深度集成模型抵抗对手攻击的能力,减少攻击的迁移效应,实现更好的白盒和黑盒攻击防御性能。
Dec, 2021
为了提高深度学习模型在实际应用中对小型对抗扰动的抵抗力和非恶意输入的准确性,我们考虑了一些集成方法,关键洞见在于训练模型以抵御小型攻击的模型在集成时可以承受更大的攻击,并且可以通过这个概念来优化自然准确性。我们考虑了两种方案,一种是从几个随机初始化的强韧模型中组合预测,另一种则是将强韧模型和标准模型的特征进行融合。
Feb, 2020
本文探讨多种防御手段组成的强防御系统在防御神经网络对抗性样本方面的效果,研究表明仅靠多种弱防御手段的组合并不能提供强大的对抗性样本防御能力。
Jun, 2017
该论文提出了一种新的方法,通过探索个体网络之间的交互来提高集成模型的抗干扰性,通过定义一种新的集成多样性的概念来在对抗性情境中促进网络多样性,并演示了一种适应性的多样性促进正则化器,以提高集成的鲁棒性。该方法在各种数据集上取得了良好的实验效果,同时保持了在正常情况下达到最新水平的精度。
Jan, 2019
该研究论文探讨了对抗性样本及训练,以及如何生成更强的对抗性样本以提高鲁棒性,介绍了集成对抗性训练技术,并表明在 ImageNet 数据集上应用该技术可以显著提高模型的鲁棒性。
May, 2017
采用集成方法作为防御策略可增强神经网络在 MNIST 和 CIFAR-10 数据集中对于对抗扰动的鲁棒性。
Sep, 2017
本研究通过多个神经网络的损失函数不相关来提高其对抗攻击的鲁棒性,提出了一种叫做多样化训练的方法,并发现该方法能够显著增强集合的对抗防御能力。