探索数据选择对后门攻击中的毒性效果的影响
本文提出了一种基于过滤和更新策略的深度神经网络反向攻击样本优化方法,从而提高了毒化数据的效率。通过在 CIFAR-10 和 ImageNet-10 数据集上的实验结果验证了该方法的有效性。
Apr, 2022
通过渐进隔离被污染数据的新方法 (PIPD),该论文提出了一种有效的训练策略,以训练一个干净的模型,并降低良性数据被错误分类为污染数据的风险。实验结果表明,PIPD 在多个数据集和 DNN 模型上均表现优异,对多种后门攻击的识别能力显著超过了现有方法。
Dec, 2023
提出了一种有效的对抗性样本(backdoor)防御方法,它由多个子模块组成,能够在检测到 backdoor 的同时进行筛选清洗,并通过提取毒信号的方式中和攻击。该防御方法在 CIFAR10 数据集上针对 9 种不同的目标基类配对均表现出较好的效果。
Nov, 2019
利用数据污染,添加即便微小干扰也能改变模型原本判断的样本分类,且添加的干扰本身难以被发现,同时在效率上有所提升的神经网络后门攻击方法。
Jan, 2023
本文提出了一种新的方法应对数据受限的后门攻击,使用预训练的 CLIP 模型并引入了基于 “干净特征抑制” 和 “污染特征增强” 两大技术来有效地操纵模型的行为,实验表明该方法可显着提高攻击成功率。
Jun, 2023
通过对被污染神经元的特征进行排名,我们提出的方法可以显著降低攻击成功的几率超过 50%,即使只有极小的干净数据集,例如 CIFAR-10 数据集的十个样本,并且不会明显损害模型性能。此外,我们提出的方法比基准方法运行速度快三倍。
Nov, 2023
隐形功能型后门攻击对训练神经网络构成了严重的安全威胁,本文提出了一种基于扩散模型及知识蒸馏的新方法,能够在潜在受污染的数据集上训练模型,并生成具备对抗后门触发的鲁棒性的学生模型。
Oct, 2023
通过利用纯净数据集训练的网络作为触发器生成器,该研究提出了一种新的触发器分类方法并开发了一种多标签和多负载的基于毒化的反向门攻击(PPT),该方法可以在不牺牲准确率的情况下在各种数据集上实现高攻击成功率。
May, 2024