通过对被污染神经元的特征进行排名,我们提出的方法可以显著降低攻击成功的几率超过 50%,即使只有极小的干净数据集,例如 CIFAR-10 数据集的十个样本,并且不会明显损害模型性能。此外,我们提出的方法比基准方法运行速度快三倍。
Nov, 2023
我们提出了一个有效的防御框架,该框架在数据预处理过程中注入非对抗性后门,以抵御深度神经网络面对后门攻击的威胁。在多个基准测试和代表性攻击的广泛实验中,我们的方法实现了业界领先的防御效果,在干净数据上性能下降极低。鉴于我们的框架展示的惊人防御能力,我们呼吁更多关注如何利用后门进行后门防御。
Jul, 2023
该研究对针对深度神经网络的后门攻击进行了全面的调查,总结和分类现有的后门攻击和防御方法,并提供了分析基于攻击方法的中毒后门攻击的统一框架,并分析了后门攻击与相关领域(如敌对攻击和数据污染)的关系,同时总结了广泛采用的基准数据集。
Jul, 2020
本文介绍了一种利用关键层分析区分正常样本和感染样本的方法,从而缓解深度神经网络的后门攻击。
Feb, 2023
该论文提出一种基于黑盒模型的反向工程优化算法,用于检测深度神经网络中嵌入的恶意后门攻击,并通过检测结果进行有效的可靠预测,实验表明其可以有效地应对多种后门攻击。
Mar, 2021
观察了后门攻击的特点,本文提出了一种新的模型训练方法(PT),该方法通过冻结模型的一部分来训练能够隔离可疑样本的模型,然后在此基础上,对一个干净模型进行微调以抵抗后门攻击。
May, 2024
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
本文研究深度神经网络面临的后门攻击问题,提出了基于 L∞规范的神经元修剪方法来消除后门,实验证明该方法成功率显著降低,并对清晰图像保持高分类准确度。
Feb, 2020
本文提出了一种因果性启发的后门防御方法(CBD),通过构建因果图模型污染数据的生成过程,并将后门攻击作为混淆因素,利用混淆模型学习去混淆的特征表示,最终实现可靠的分类预测。经过多个基准数据集的实验验证,CBD 方法有效地减少了后门威胁,同时在预测良性样本的准确性方面表现出高水平。
Mar, 2023
本文提出一种名为反后门学习 (Anti-Backdoor Learning, ABL) 的方法,实现了在数据中注入后门的情况下对深度神经网络进行防御。采用两个阶段的梯度上升机制对数据进行处理,这样训练出的模型可以与只使用纯净数据训练的模型一样优秀。
Oct, 2021