本文针对深度学习领域的后门攻击进行研究,通过添加训练任务以区分被污染数据和干净数据,以及使用原有的干净数据进行攻击,提高攻击效果,并在三种场景下进行了实验验证。
Oct, 2021
本文提出了一种不需要外部触发器、带有正确标签的文本后门攻击策略,通过基因算法生成干净的例子,这些干净的例子的标签是正确的,试验表明这种攻击策略不仅有效,而且由于没有触发器和干净的标签,很难防御,是在 NLP 领域研发无触发器攻击策略的第一步。
Nov, 2021
本文研究基于句法结构的文字后门攻击方法,实验表明该方法具有相当的攻击性能,同时具有更高的隐蔽性和抵御防御的能力。
May, 2021
本研究提出了针对 NLP 模型的 “自然后门攻击”,对文本数据进行触发器生成,并研究了不同类型的触发器,最终在文本分类任务上实现了 100% 的后门攻击成功率和 0.83% 的牺牲。
Jun, 2020
本研究主要探讨在文本背门攻击中,通过触发词的优化和污染样本的选择,以减少污染样本的数量同时仍能达到满意的攻击成功率,从而显著提高攻击的有效性。在不同数据集和模型上进行的大量实验证明,该方法在文本分类任务中能够达到超过 90% 的攻击成功率,并且在脏标签设置中仅需要 10 个污染样本,在清洁标签设置中仅需要训练数据的 1.5%。
Nov, 2023
分析内部 LSTM 神经元的变化,提出了一种防御方法,名为 Backdoor Keyword Identification,用于防御针对基于 LSTM 的文本分类的后门攻击,该方法可以在没有验证和可信数据集的情况下识别并排除用于向模型中插入后门的被破坏样本,实验结果表明无论触发句子如何,该方法在四个不同的文本分类数据集上都取得了良好的性能。
Jul, 2020
本文提出了一种输入唯一的后门攻击方法 (IDBA),可以使能够通过语言模型 (GPT2) 生成上下文相关的后门触发器,解决了现有后门攻击方法的缺陷,不仅可以生成流畅、语法正确且多样化的后门输入,同时也达到了高攻击成功率,且难以被现有防御方法识别。
Mar, 2023
本研究提出了一种名为 ProAttack 的新方法,用于在不使用外部触发器的情况下基于提示执行干净标签的后门攻击,从而对模型引入有针对性的漏洞,该方法使用提示本身作为触发器,并确保正确标记给定的样本,可以提高后门攻击的隐蔽性。
May, 2023
本研究在文本分类基于 LSTM 中,通过数据毒化实现后门攻击,注入触发句会导致误分类,被注入的后门攻击难以察觉,对性能影响小。通过在 IMDB 电影评论数据集上进行情感分析实验,证实本攻击的成功率可达 95%。
May, 2019
通过利用训练动态识别有毒样本并进行标签传播以提高召回率,我们提出了一种新颖的防御机制,有效降低了多种后门攻击的成功率,并保持了对干净测试集高准确度的分类。
May, 2024