利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
对抗性示例的存在揭示了深度神经网络的基本弱点。我们的主要贡献是一种通用方法,使分类器具有显着的鲁棒性,而其自然准确性的降低仅仅是微小或可忽略的。
Oct, 2023
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
论文研究了神经网络模型的不确定性对于对抗样本的产生具有决定性作用,与体系结构、数据集和训练协议无关,表现为对抗误差具有与对抗扰动大小呈幂律的普适性,通过减小预测熵来提高对抗鲁棒性,在 CIFAR10 上使用神经架构搜索找到更鲁棒的架构。
Nov, 2017
研究发现,对于一些平衡的数据集,在执行 Adversarial training algorithms 时将出现不同类别的数据准确度和鲁棒性的严重差异,因此提出了一种名为 Fair-Robust-Learning 的框架以解决这种不公平的问题,并在实验中验证了其有效性。
Oct, 2020
理论框架揭示了扰动中包含了足够的类别特征以实现泛化,并且学习扰动的决策边界与标准样本的决策边界在大部分区域上相一致。
Feb, 2024
大规模深度学习中,预训练生成了下游任务的通用表示。现有文献经验性地观察到下游任务可以继承预训练模型的对抗鲁棒性,并提出了理论上的证明以揭示特征净化在预训练模型和下游任务之间的连接,在两层神经网络中展现出重要作用。通过对抗训练,每个隐藏节点趋向于选择一个或少量特征,而未经对抗训练的隐藏节点容易受到攻击。这一观察结果适用于监督预训练和对比学习,并且通过净化节点,清洁训练就足以实现下游任务的对抗鲁棒性。
Jan, 2024
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
本文全面综述了深度神经网络在模式识别中的鲁棒性问题,尤其是针对对抗样本的鲁棒性训练方法,从基础概念、理论模型、算法方法等不同角度进行了系统、结构化的调查和讨论。
Mar, 2022