通过未经过修改的标签中的错误标签注入,我们提出了清洁图像后门攻击,揭示了后门仍然可以通过错误标签的一小部分分数进行注入,从而对图像分类模型的公正性和鲁棒性造成严重威胁,需要对外包标注中的错误标签保持警惕。
Mar, 2024
通过使用脏标签技术 - ' 标签对标签 ',在选定的与目标类别相关的数据模式中插入触发器(拍手声),我们提出了一种名为 'DirtyFlipping' 的后门攻击,从而实现了隐秘的后门。
该论文研究了针对深度学习系统的后门攻击,提出了一种不使用标签毒化的新型后门攻击方式,并在 MNIST 手写数字识别和交通标志分类任务上得出了实验结果。
Feb, 2019
本文提出了一种高效算法来执行最优标签翻转毒攻击,并提出了一种机制,以检测和重新标记可疑数据点,减轻这种毒攻击的影响。
Mar, 2018
研究指出多模态对比学习方法训练在无噪声且未分类的数据集上可能导致后门和毒化攻击成为重要的威胁。通过少量的毒化数据,可以影响模型分类测试图片的准确性,这显然会影响训练数据集的质量。
Jun, 2021
通过利用纯净数据集训练的网络作为触发器生成器,该研究提出了一种新的触发器分类方法并开发了一种多标签和多负载的基于毒化的反向门攻击(PPT),该方法可以在不牺牲准确率的情况下在各种数据集上实现高攻击成功率。
May, 2024
提出一种只需对干净模型进行最小修改(特别是输出层)以在精调的假象下注入后门的后门攻击范例。通过利用位于潜空间中不同模态之间的模式混合样本,并引入一种新的后门攻击方法来实现。在 MNIST,CIFAR-10,GTSRB 和 TinyImageNet 数据集上评估该方法的有效性。
本文提出了一种新的视频后门攻击方法,使用通用对抗触发器在影响少量训练数据的情况下成功地攻击最新的视频识别模型,并表明这种新方法具有较强的对抗性和鲁棒性,同时能提高图片后门攻击的效果。
Mar, 2020
通过使用适当的数据增强手段,自主训练能够在缓解后门攻击中扮演重要角色。
Jan, 2023
本文系统评估了包括触发器模式、回归技术、模型体系结构及数据集在内的不同实验条件,并研究后门数据污染攻击的成功率及其可被检测的难度。
Apr, 2020