本文研究在线学习中的数据污染攻击,将其形式化为一类随机最优控制问题,并采用模型预测控制和深度强化学习方法解决。实验验证了该控制方法在监督学习和无监督学习任务中生成接近最优的攻击的有效性。
Mar, 2019
本文旨在研究数据污染攻击及其对机器学习的影响,提出差分隐私保护措施以防范攻击, 并设计了攻击算法,试图从目标和输出的角度影响学习器,实验结果表明,攻击者在污染足够多的训练数据时,攻击方法的有效性较高。
本文对过去 15 年来关于机器学习中中毒攻击和防御的 100 多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
May, 2022
本文提出一种防御机制来弥补机器学习中数据毒化的影响,该机制基于离群值检测来检测所谓的最优攻击策略生成的对抗样本与真实样本之间的差异。
Feb, 2018
本文综述了机器学习分类器训练中的数据污染攻击的安全漏洞,并介绍了几种可行的检测和缓解机制,比较了不同方法的性能以及固有属性,如可靠性、隐私和可解释性。同时,提供了未来研究方向的参考。
Feb, 2022
用于训练数据的小扰动攻击机器学习模型的可用性数据中毒攻击有可能泛化到不同的学习算法和范式,并提出了可转移的中毒攻击来生成高频中毒扰动,该攻击具有显著改善的可转移性。
Oct, 2023
对使用用户提供数据训练的机器学习系统进行的数据毒化攻击问题进行了探讨,构建了数据异常移除后采用经验风险最小化的防御方法下的攻击损失上限并给出了攻击方法,检验了在 MNIST-1-7,Dogfish 数据集上其防御能力较强,而在 IMDB 情感数据集上加入 3% 的毒化数据可将测试误差从 12% 提升至 23%。
Jun, 2017
介绍了一种新的针对机器学习模型的攻击方式,即通过污染训练数据集,导致模型泄露属于其他用户的私人数据。该攻击包括成员推断、属性推断和数据提取等多方面,可能会危及多方面的用户隐私。
Mar, 2022
本研究探讨了对洁净标签下的中毒攻击的防御方法,并提出了一种在迁移学习环境中检测和过滤被中毒数据点的新方法,通过实验分析表明,我们的方法能够在特征向量空间中有效区分有效的中毒点和干净点,并通过多个架构、数据集和中毒预算的比较,充分评估了我们的方法,结果显示我们的方案在所有实验设置中均优于现有方法的防御率和最终训练模型性能。
Mar, 2024
该论文系统研究了线性回归模型中的污染攻击和其对策,提出了一个特定于线性回归的理论优化框架,并设计了一种面对污染攻击高度抗干扰的新型防御方法。
Apr, 2018