本文提出了一种通过优化辅助一致性规则损失来避免鲁棒过度拟合的有效正则化技术,在 Adversarial training 过程中使用数据扩增来强制攻击后的预测分布相似。实验结果表明,这种简单的方法可以显著提高各种 AT 方法的测试准确性,并对模型作出更具实际意义的泛化。
Mar, 2021
该研究旨在提升机器学习模型的稳健性,研究发现在包括未知扰动的情况下,权重衰减表现更佳,并结合对抗性训练实现较强的白盒攻击抵御能力。
Apr, 2018
本文提出了三种防御方法来增强对多种攻击类型的鲁棒性,包括自适应防御技术 Adaptive AT,课程式防御技术 Curriculum AT 和将 AT 与去噪生成对抗网络相结合的生成式防御技术 Generative AT,并在 UCF101 数据集上进行了实验。
Jun, 2022
通过 FW-AT 理论框架提出一种新的对抗训练算法 - FW-AT-Adapt,它使用简单的扭曲度量来调整训练中的攻击步数,从而提高效率而不影响鲁棒性。与其他单步方法相比,FW-AT-Adapt 在多步 PGD-AT 的鲁棒性与训练时间上提供了最小的损失。
Dec, 2020
本文提出了平衡对抗训练(Balance Adversarial Training)方法,用于解决在对抗训练中不同类别间的鲁棒性和准确性存在严重失衡的问题。通过对两种不公平现象进行观察,即不同类别的对抗样本生成难度差异(源类别公平)和生成对抗样本时不同类别存在不公平偏向(目标类别公平),引入适当的攻击强度和均匀分布约束等措施,能够显著提升指标和缓解鲁棒公平问题。
Sep, 2022
该研究论文介绍了新型对抗训练方法 ATTA,利用同一训练进程中相邻时期的模型具有高可转移性的特点,通过积累对抗扰动来增强训练模型的鲁棒性,并显著提高训练效率。相较于最先进的对抗训练方法,ATTA 在 CIFAR10 数据集上能提高 7.2% 的对抗准确性,在 MNIST 和 CIFAR10 数据集中只需 12-14 倍的训练时间就可以达到可比的模型鲁棒性。
Dec, 2019
提出基于数据修剪的针对深度神经网络的对抗训练,通过减少数据层面的冗余来提高计算效率,实现和未修剪模型相似或更高的鲁棒性和准确性。
Feb, 2023
深度学习的鲁棒训练中存在的过拟合问题可通过攻击强度和数据增强等措施来减轻,这些措施能阻止神经网络学习无效特征,从而提高鲁棒性。
Oct, 2023
本文提出了一种新的模型训练框架 - 对抗分布式训练(ADT),通过最小值最大化优化问题,训练模型来学习处理各种威胁。ADT 的有效性也在几个基准测试中得到了验证。
Feb, 2020
该研究论文系统地回顾了针对深度学习模型的对抗训练在对抗鲁棒性方面的最新进展,并从三个视角讨论了对抗训练中的泛化问题,同时指出了尚未完全解决的挑战并提出潜在的未来研究方向。
Feb, 2021