本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本文提出一种方法,在深度神经网络中增加一个小的 “检测器” 子网络,用于区分含有敌对扰动的假数据和不包含敌对扰动的真数据的二元分类任务,并证明其能够有效检测和对抗敌对扰动攻击。
Feb, 2017
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
通过提出反对抗层,解决深度神经网络对小幅度输入扰动的脆弱性问题,并在 CIFAR10、CIFAR100 和 ImageNet 数据集上进行实验,结果显示该方法显著提高了模型的稳健性能且对准确率没有成本影响。
Mar, 2021
该研究论文探讨了对抗性样本及训练,以及如何生成更强的对抗性样本以提高鲁棒性,介绍了集成对抗性训练技术,并表明在 ImageNet 数据集上应用该技术可以显著提高模型的鲁棒性。
May, 2017
该研究论文系统地回顾了针对深度学习模型的对抗训练在对抗鲁棒性方面的最新进展,并从三个视角讨论了对抗训练中的泛化问题,同时指出了尚未完全解决的挑战并提出潜在的未来研究方向。
Feb, 2021
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
深度学习算法在高能物理学领域中越来越受到重视,特别是针对飞行物理观测中标签识别任务的,研究者们正致力于提高模型的稳健性并针对异常数据提出对抗性训练策略以提高模型的鲁棒性。
Mar, 2023
本文介绍一种深度学习的补充框架:梯度对抗性训练,在此框架下,作者采用辅助网络来分类并调整梯度张量以实现统一性,进而增强了对抗攻击的鲁棒性,更好地在知识蒸馏及多任务学习中表现,并充分展示了梯度信息在训练过程中的重要性。
Jun, 2018