毒素学得越快越有效
本论文提出了一种有效的深度 k-NN 策略作为可靠的防御干净标签攻击的方法,并在 CIFAR-10 数据集上展示了它的高检测准确性、识别出超过 99% 的攻击性样本并能有效地去除它们,同时无损模型性能。
Sep, 2019
本文研究了机器学习算法对数据污染攻击的脆弱性,提出了一种基于梯度整形的攻击不可知防御方法,并评估了基于差分隐私随机梯度下降的可行性和有效性。研究结果表明,梯度整形是未来研究的有前途的方向。
Feb, 2020
本文研究了数据污染和后门攻击对训练数据的影响,发现数据污染是常见的安全威胁之一,但目前还不清楚这些攻击方法的危害程度,我们通过开发标准基准来促进未来工作的公平比较。
Jun, 2020
该论文发现,在对抗数据污染和后门攻击的情况下,使用强大的数据增强方法,如mixup和CutMix,可以显著减少威胁,同时不会降低性能,并且在后门攻击时,CutMix大大减轻了攻击,同时增加了9%的验证准确性。
Nov, 2020
本文证明了敌对训练可以作为防御欺骗攻击的可靠方法,并通过实验验证了其鲁棒性。敌对训练在自然环境中抵御欺骗攻击的机制是通过避免学习器过度依赖非鲁棒特征。
Feb, 2021
本文研究了深度图像分类模型中毒的问题,提出了两种防御方案进行后处理,利用少量的受信任的图像标签对修复模型,防御效果优于现有的方案,并指出了检测/鲁棒性权衡关系和攻击的适应能力问题。
May, 2023
本文研究了线性学习器的无差别毒化问题,发现如果类别数据分布良好分离且限制集的大小也很小,线性学习器就可以抵抗无差别毒化攻击,并对最新攻击策略的在不同数据集间性能差异做出理论解释。
Jul, 2023
用于训练数据的小扰动攻击机器学习模型的可用性数据中毒攻击有可能泛化到不同的学习算法和范式,并提出了可转移的中毒攻击来生成高频中毒扰动,该攻击具有显著改善的可转移性。
Oct, 2023
本研究探讨了对洁净标签下的中毒攻击的防御方法,并提出了一种在迁移学习环境中检测和过滤被中毒数据点的新方法,通过实验分析表明,我们的方法能够在特征向量空间中有效区分有效的中毒点和干净点,并通过多个架构、数据集和中毒预算的比较,充分评估了我们的方法,结果显示我们的方案在所有实验设置中均优于现有方法的防御率和最终训练模型性能。
Mar, 2024
本研究解决了自监督学习在面对毒化数据时表现不佳的问题,提出了一种名为VESPR的新防御策略。通过在监督学习中引入对抗训练,VESPR成功地模糊化了毒化特征,显著提高了模型的鲁棒性,验证了其在七种常见毒化技术下的优越性能,平均提高了ImageNet-100测试准确率9%。
Sep, 2024