通过属性触发实现具有干净标签的样本特定后门攻击
通过未经过修改的标签中的错误标签注入,我们提出了清洁图像后门攻击,揭示了后门仍然可以通过错误标签的一小部分分数进行注入,从而对图像分类模型的公正性和鲁棒性造成严重威胁,需要对外包标注中的错误标签保持警惕。
Mar, 2024
本文提出了一种不需要外部触发器、带有正确标签的文本后门攻击策略,通过基因算法生成干净的例子,这些干净的例子的标签是正确的,试验表明这种攻击策略不仅有效,而且由于没有触发器和干净的标签,很难防御,是在 NLP 领域研发无触发器攻击策略的第一步。
Nov, 2021
传统图神经网络领域中的后门攻击因混淆的标签而容易被检测,为了探索图神经网络的后门漏洞并创建更隐秘的后门攻击方法,本文提出了一种基于无干扰节点分类任务的干净标签图后门攻击方法(CGBA)。与已有的后门攻击方法不同,CGBA 既不需要修改节点标签也不需要修改图结构。具体而言,为了解决样本内容与标签不一致的问题,CGBA 在特定目标类中选择污染样本,并将样本的标签(即干净标签)作为目标标签注入到目标样本中。为了保证相邻节点的相似性,CGBA 精心选择节点的原始特征作为触发器,进一步提高触发器的隐蔽性。广泛实验结果表明我们的方法的有效性。当污染率为 0.04 时,CGBA 可以分别实现 87.8%、98.9%、89.1% 和 98.5% 的平均攻击成功率。
Dec, 2023
通过利用纯净数据集训练的网络作为触发器生成器,该研究提出了一种新的触发器分类方法并开发了一种多标签和多负载的基于毒化的反向门攻击(PPT),该方法可以在不牺牲准确率的情况下在各种数据集上实现高攻击成功率。
May, 2024
本文研究深度神经网络(DNN)中的后门攻击,提出了一种新的攻击方法,生成样本特定且不可见的添加噪声作为后门触发器,证明了该方法可以有效地攻击有或无防御机制的模型。
Dec, 2020
反复注入学习范例中的干扰,利用对比捷径注入方法(CSI)设计更强的捷径特征,使得清洁标签攻击在低毒性率下具有高效性和隐秘性。
Mar, 2024
本研究提出一种新颖的深度学习后门攻击方式,攻击者能够在训练过程中提供正常标注的毒瘤数据,并在毒瘤数据中隐藏触发器,待测试时再激活攻击,从而欺骗模型,而该攻击方式无法轻易通过最先进的后门攻击的防御算法进行防御。
Sep, 2019
本文研究 DNN 后门攻击的触发模式,发现现有攻击可视或不稀疏,且不能简单组合以设计有效的稀疏和不可见后门攻击。因此,我们提出了一种有效方法来解决这个问题,称为 SIBA,将触发生成视为稀疏和不可见约束下的双层优化问题,并对基准数据集进行了广泛实验。
May, 2023
本文研究了 Few-shot Learning(FSL)领域中的后门攻击问题,发现 FSL 仍然存在脆弱性,并提出了一种名为 Few-shot Learning Backdoor Attack(FLBA)的新方法,该方法通过生成触发器并使用两种类型的不可察觉扰动使攻击更具隐蔽性,并在 FSL 任务中取得了高攻击成功率,同时保持了准确性和隐蔽性。
Dec, 2023