采用集成方法作为防御策略可增强神经网络在 MNIST 和 CIFAR-10 数据集中对于对抗扰动的鲁棒性。
Sep, 2017
本文通过几何分析和数值实验,探讨防御机制在保护神经网络免受 $\ell_2$ 对抗样本攻击效果不佳的问题,并评估已有的混合防御策略对于对抗样本攻击的现实意义和潜在问题。
Dec, 2020
该研究提出了一种测试方法以识别弱攻击和防御评估,为了增强透明和信心,将攻击单元测试作为未来强度评估的重要组成部分。
Jun, 2022
该研究论文探讨了对抗性样本及训练,以及如何生成更强的对抗性样本以提高鲁棒性,介绍了集成对抗性训练技术,并表明在 ImageNet 数据集上应用该技术可以显著提高模型的鲁棒性。
May, 2017
通过对对抗样本的数据增广训练神经网络模型,以提高模型的抗干扰性,并发现通过将小型模型构成的集成模型一起进行对抗训练相比使用单个大模型的训练更有效。而重点在于对整个集成模型的对抗训练,而不是只对每个模型进行对抗训练。
Nov, 2018
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
该论文提出一个名为 NCEn 的新的集成防御方法,通过将每个成员的梯度方向和梯度幅度负相关地引入,同时减少它们之间对抗性示例的可传递性,以提高集合的对抗鲁棒性。
机器学习系统中的对抗现象给实际应用带来了严重安全威胁,本调查旨在从统一的视角对现有的防御机制进行系统回顾,通过将机器学习系统划分为预训练、训练、后训练、部署和推断等五个阶段,提出明确的分类法,以分析各个防御机制的机制、联系和差异,并激发未来研究开发更先进、全面的防御机制。
Dec, 2023
该论文提出了一种新的方法,通过探索个体网络之间的交互来提高集成模型的抗干扰性,通过定义一种新的集成多样性的概念来在对抗性情境中促进网络多样性,并演示了一种适应性的多样性促进正则化器,以提高集成的鲁棒性。该方法在各种数据集上取得了良好的实验效果,同时保持了在正常情况下达到最新水平的精度。
Jan, 2019
通过使用多个专家的集合,其中专业按混淆矩阵定义,我们发现在存在对抗实例的情况下,专家集合能更好地识别和拒绝愚弄实例,通过拒绝机制使系统更加鲁棒,而不是试图以任何代价正确地对抗其进行分类。
Feb, 2017