持续对抗性防御
本文提出了一种对抗背景攻击的新型防御性框架,该框架利用了攻击者隐藏后门模式的能力,提出了学习一个更加可感知(更强大)的模式以抵抗攻击的思想,同时通过使用多种连续学习基准数据集来证明其有效性。
Apr, 2023
在这篇论文中,提出了一种多功能的防御方法,只需要训练一个模型就能有效抵抗各种未知的对抗性攻击,并且该模型的分类准确率平均提高至 86%,表现比之前研究中提出的其他防御方法更好。在面对 PGD 攻击和 MI-FGSM 攻击时,多功能防御模型甚至超过了基于这两种攻击训练的特定攻击模型,并且鲁棒性检查显示我们的多功能防御模型在攻击强度下表现稳定。
Mar, 2024
该研究针对深度学习在不断学习模型中容易受到对抗攻击的问题提出了 Task-Aware Boundary Augmentation (TABA) 的防御方法,并在 CIFAR-10 和 CIFAR-100 上进行了广泛的实验,证明了对抗训练和 TABA 在抵御对抗攻击方面的有效性。
Mar, 2023
对记忆型持续学习算法的对抗鲁棒性进行研究,提出了一种新的对抗鲁棒记忆型持续学习方法,通过调整数据的逻辑值来减轻敌对样本导致的过去信息遗忘,并通过梯度选择机制克服有限存储数据导致的梯度混淆,实验结果表明该方法在对抗数据上取得高达 8.13% 的更高准确性。
Nov, 2023
机器学习系统的安全性和可靠性需要对抗鲁棒性。然而,由于神经网络在学习新任务时容易忘记先前的对抗鲁棒性,复杂的防御算法所获得的对抗鲁棒性很容易被抹去。为了解决这个问题,我们提出了一种名为 “双梯度投影” 的方法,通过将权重更新的梯度正交投影到两个关键子空间上,实现连续鲁棒学习,这两个子空间一个用于稳定平滑的样本梯度,另一个用于稳定神经网络的最终输出。四个基准测试的实验结果表明,我们提出的方法有效地保持了连续鲁棒性,对抗强对抗攻击的效果优于结合现有防御策略和连续学习方法的基准线组成的方法。
Feb, 2024
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
我们的研究论文提出了一种基于动态防御策略和稳定扩散的方法,该方法旨在在不使用对抗性示例的情况下进行 AI 系统的训练,以创建一个更广泛范围攻击下具有内在韧性的系统,从而提供一种更广泛且更强大的针对对抗性攻击的防御。
May, 2024
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
我们对自适应防御策略进行了分类并评估了最新的代表性方法,结果表明在图像分类中这些自适应防御策略没有明显的提高静态防御的水平,同时增加了推理计算。然而,我们仍相信自适应的防御策略是一个有前途的研究方向,并提出了具体的研究建议和评估步骤扩展了 Carlini 等人的清单。
Feb, 2022
本研究旨在使用混合方法来解决连续学习中遗忘的问题,该方法结合了体系结构生长来防止任务特定技能的遗忘,并采用经验回放方法来保存共享技能。研究结果表明,我们的混合方法在单个数据集和多个数据集的类增量学习中都表现优异。
Mar, 2020