提出了一种有效的对抗性样本(backdoor)防御方法,它由多个子模块组成,能够在检测到backdoor的同时进行筛选清洗,并通过提取毒信号的方式中和攻击。该防御方法在CIFAR10数据集上针对9种不同的目标基类配对均表现出较好的效果。
Nov, 2019
研究指出多模态对比学习方法训练在无噪声且未分类的数据集上可能导致后门和毒化攻击成为重要的威胁。通过少量的毒化数据,可以影响模型分类测试图片的准确性,这显然会影响训练数据集的质量。
Jun, 2021
本文对过去15年来关于机器学习中中毒攻击和防御的100多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
May, 2022
在机器重学习等场景中,我们介绍伪装数据污染攻击,一种新的攻击方式,其步骤包括添加一些精心构造的点到训练数据集中,并在之后的请求中删除其中的一部分,从而导致模型的预测产生负面影响,我们考虑的是在包括 CIFAR-10、Imagenette 和 Imagewoof 数据集中加入洁净标签有针对性的攻击并使用伪装数据点来实现此攻击。
Dec, 2022
引入了一个训练掩码,学习可选择的毒性样本,从而有效地选择对注入后门有高贡献的样本,进而加强后门攻击网络的攻击效果。
Jul, 2023
本研究探讨了对洁净标签下的中毒攻击的防御方法,并提出了一种在迁移学习环境中检测和过滤被中毒数据点的新方法,通过实验分析表明,我们的方法能够在特征向量空间中有效区分有效的中毒点和干净点,并通过多个架构、数据集和中毒预算的比较,充分评估了我们的方法,结果显示我们的方案在所有实验设置中均优于现有方法的防御率和最终训练模型性能。
Mar, 2024
数据污染攻击对机器学习模型的完整性构成重大威胁,本研究引入了一种通用数据净化方法,通过应用一个基于能量的模型(EBM)的普适性随机预处理步骤来保护自然训练的分类器免受恶意攻击。
May, 2024
我们重新审视了用于大规模深度学习的几种近似机器遗忘方法的功效。虽然现有的遗忘方法在一些评估设置下表现出了有效性,但我们实验证明它们无法消除数据污染的影响,在各种类型的污染攻击和模型中都表现出失败的情况。我们引入了基于数据污染的遗忘评估指标,结果表明需要更广泛的视角来避免对没有可证保证的深度学习机器遗忘程序产生虚假的自信。此外,我们的工作表明尽管遗忘方法在有效消除毒害数据点方面显示出一些迹象且无需重新训练,但目前这些方法还不是“时机已到”,并且相对于重新训练而言带来的好处有限。
Jun, 2024
通过无差别攻击数据 poising 在机器取消学习中腐蚀模型准确度的弱点,本研究强调了对于机器取消学习中的“数据污染”问题的进一步研究的必要性。
Jul, 2024
本研究解决了自监督学习在面对毒化数据时表现不佳的问题,提出了一种名为VESPR的新防御策略。通过在监督学习中引入对抗训练,VESPR成功地模糊化了毒化特征,显著提高了模型的鲁棒性,验证了其在七种常见毒化技术下的优越性能,平均提高了ImageNet-100测试准确率9%。
Sep, 2024