本研究重点改进了从样本选择角度提高后门攻击的注入效率,并提出了一种名为改进过滤和更新策略(FUS++)的选择策略,实验证明该策略的攻击性能显著高于随机选择的攻击性能。
Oct, 2023
本文提出了一种基于过滤和更新策略的深度神经网络反向攻击样本优化方法,从而提高了毒化数据的效率。通过在 CIFAR-10 和 ImageNet-10 数据集上的实验结果验证了该方法的有效性。
Apr, 2022
该论文研究了基于深度学习的认证系统对于后门攻击的脆弱性,特别是通过数据注入的后门攻击,通过注入极少的毒数据,攻击者可以成功实现攻击,进而窃取敏感信息,从而为后续研究防御策略提供了研究价值。
Dec, 2017
提出了一种有效的对抗性样本(backdoor)防御方法,它由多个子模块组成,能够在检测到 backdoor 的同时进行筛选清洗,并通过提取毒信号的方式中和攻击。该防御方法在 CIFAR10 数据集上针对 9 种不同的目标基类配对均表现出较好的效果。
Nov, 2019
本文系统评估了包括触发器模式、回归技术、模型体系结构及数据集在内的不同实验条件,并研究后门数据污染攻击的成功率及其可被检测的难度。
Apr, 2020
观察了后门攻击的特点,本文提出了一种新的模型训练方法(PT),该方法通过冻结模型的一部分来训练能够隔离可疑样本的模型,然后在此基础上,对一个干净模型进行微调以抵抗后门攻击。
May, 2024
利用数据污染,添加即便微小干扰也能改变模型原本判断的样本分类,且添加的干扰本身难以被发现,同时在效率上有所提升的神经网络后门攻击方法。
Jan, 2023
该研究对针对深度神经网络的后门攻击进行了全面的调查,总结和分类现有的后门攻击和防御方法,并提供了分析基于攻击方法的中毒后门攻击的统一框架,并分析了后门攻击与相关领域(如敌对攻击和数据污染)的关系,同时总结了广泛采用的基准数据集。
Jul, 2020
金融行业使用深度学习模型做出重要决策,但这导致了新的危险,因为深度黑盒模型容易受到对抗性攻击。为了在复杂的离散序列空间上植入后门,我们提供了一种方法来引入隐藏的后门,破坏模型的功能性。我们的实验研究揭示了这些影响如何在不同数据集、架构和模型组件中变化,同时探索了其他方法和基线,发现它们效率较低。研究结果不仅揭示了当代模型的漏洞,还有助于构建更健壮的系统。
Aug, 2023
对于机器学习中的黑门攻击,本文通过建立性能的上下界限来评估任何包含恒定触发器的黑门攻击的有效性,回答了一系列基本但以前未被充分探讨的问题,包括黑门攻击成功的决定因素、最有效的黑门攻击方向以及人类难以察觉的触发器何时会成功。该理论适用于判别模型和生成模型,并通过使用基准数据集和最先进的黑门攻击场景进行实验来证明该理论。