该论文研究了基于深度学习的认证系统对于后门攻击的脆弱性,特别是通过数据注入的后门攻击,通过注入极少的毒数据,攻击者可以成功实现攻击,进而窃取敏感信息,从而为后续研究防御策略提供了研究价值。
Dec, 2017
该论文研究了针对深度学习系统的后门攻击,提出了一种不使用标签毒化的新型后门攻击方式,并在MNIST手写数字识别和交通标志分类任务上得出了实验结果。
Feb, 2019
本研究提出一种新颖的深度学习后门攻击方式,攻击者能够在训练过程中提供正常标注的毒瘤数据,并在毒瘤数据中隐藏触发器,待测试时再激活攻击,从而欺骗模型,而该攻击方式无法轻易通过最先进的后门攻击的防御算法进行防御。
Sep, 2019
提出了一种有效的对抗性样本(backdoor)防御方法,它由多个子模块组成,能够在检测到backdoor的同时进行筛选清洗,并通过提取毒信号的方式中和攻击。该防御方法在CIFAR10数据集上针对9种不同的目标基类配对均表现出较好的效果。
Nov, 2019
本文利用敌对扰动和生成模型执行高效且标签一致的后门攻击,通过注入似乎合理但难以分类的输入来使模型依赖于(易于学习的)后门触发器,达到攻击的目的。
Dec, 2019
本文提出了一种新的视频后门攻击方法,使用通用对抗触发器在影响少量训练数据的情况下成功地攻击最新的视频识别模型,并表明这种新方法具有较强的对抗性和鲁棒性,同时能提高图片后门攻击的效果。
Mar, 2020
本文提出一种更强的权重污染攻击方法,引入逐层权重污染策略以种植更深层次的后门;我们还引入一种组合式触发器,不能轻易检测。实验表明,以前的防御方法无法抵抗我们的权重污染方法,这表明我们的方法可以被广泛应用,并为未来的模型鲁棒性研究提供线索。
Aug, 2021
利用数据污染,添加即便微小干扰也能改变模型原本判断的样本分类,且添加的干扰本身难以被发现,同时在效率上有所提升的神经网络后门攻击方法。
Jan, 2023
通过corrupt labels设计的label-only backdoor attack方法FLIP,在几个数据集和架构上展示了其强大的攻击能力,并且只引起1.8%的clean test准确度下降。
Oct, 2023
深度神经网络对后门攻击和无标签攻击存在脆弱性,本研究探讨了只提供目标类数据的情况下,通过样本选择策略来提高后门攻击成功率,提出了一种更实用但也更具挑战性的威胁模型,并在基准数据集上验证了策略的有效性。
Jul, 2024