预训练特征提取器的不可区分数据毒化攻击
用于训练数据的小扰动攻击机器学习模型的可用性数据中毒攻击有可能泛化到不同的学习算法和范式,并提出了可转移的中毒攻击来生成高频中毒扰动,该攻击具有显著改善的可转移性。
Oct, 2023
本文综述了机器学习分类器训练中的数据污染攻击的安全漏洞,并介绍了几种可行的检测和缓解机制,比较了不同方法的性能以及固有属性,如可靠性、隐私和可解释性。同时,提供了未来研究方向的参考。
Feb, 2022
介绍了一种新的针对机器学习模型的攻击方式,即通过污染训练数据集,导致模型泄露属于其他用户的私人数据。该攻击包括成员推断、属性推断和数据提取等多方面,可能会危及多方面的用户隐私。
Mar, 2022
本文对过去 15 年来关于机器学习中中毒攻击和防御的 100 多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
May, 2022
本文提出一种数据污染攻击 ——PoisonedEncoder,该攻击通过在无标签的预训练数据中注入精心制作的污染输入,为多目标下游任务构建基于受攻击者选择的中毒编码器的下游分类器,使得这些分类器将受攻击者选择的任意干净输入分类为受攻击者选择的任意类别,同时我们提出了一种针对对比度学习的方法来近似求解该数据污染攻击问题,并评估了五种针对 PoisonedEncoder 的防御策略。
May, 2022
本研究探讨了对洁净标签下的中毒攻击的防御方法,并提出了一种在迁移学习环境中检测和过滤被中毒数据点的新方法,通过实验分析表明,我们的方法能够在特征向量空间中有效区分有效的中毒点和干净点,并通过多个架构、数据集和中毒预算的比较,充分评估了我们的方法,结果显示我们的方案在所有实验设置中均优于现有方法的防御率和最终训练模型性能。
Mar, 2024
本文研究机器学习模型在训练时通过数据毒化攻击注入恶意数据点的危害以及数据清洗防御措施的不足。通过协调毒化点放置位置和基于约束条件设计攻击的方式,开发三种不同方法规避现有的数据清洗防御措施。这些攻击方法均基于耗时的二级规划问题,并通过影响函数,极小 - 极大假说和 Karush-Kuhn-Tucker(KKT)条件来实现。我们的实验结果表明需要开发更稳健的数据清洗防御措施以应对数据毒化攻击的威胁。
Nov, 2018