关于数据投毒的致死剂量猜想
该研究提供了两种新的有证明的防御机制,分别是 Deep Partition Aggregation (DPA) 与 Semi-Supervised DPA (SS-DPA),针对插入或删除少量样本的威胁模型(即有害污染攻击)提供了证书,并在 MNIST 和 CIFAR-10 数据集上表现优异。
Jun, 2020
我们提出了一种改进的认证防御技术,称为有限聚合,通过将训练集分成较小的互斥子集,然后将其重复组合,以构建较大的(但不相离)子集来训练基础分类器,从而提高 MNIST,CIFAR-10 和 GTSRB 上的(点对点)认证稳健性,并在保持与 DPA 相同的准确性的同时,将已认证部分提高了 3.05%,3.87%和 4.77%,有效地建立了一种新的数据中毒(点对点)认证鲁棒性的技术。
Feb, 2022
对使用用户提供数据训练的机器学习系统进行的数据毒化攻击问题进行了探讨,构建了数据异常移除后采用经验风险最小化的防御方法下的攻击损失上限并给出了攻击方法,检验了在 MNIST-1-7,Dogfish 数据集上其防御能力较强,而在 IMDB 情感数据集上加入 3% 的毒化数据可将测试误差从 12% 提升至 23%。
Jun, 2017
本论文重点评估了代表聚合防御的 Deep Partition Aggregation 的实用方面,包括效率、性能和鲁棒性,通过使用 ImageNet 进行评估,提供了有价值的洞见,以缓解数据中毒的威胁。
Jun, 2023
本文研究机器学习模型在训练时通过数据毒化攻击注入恶意数据点的危害以及数据清洗防御措施的不足。通过协调毒化点放置位置和基于约束条件设计攻击的方式,开发三种不同方法规避现有的数据清洗防御措施。这些攻击方法均基于耗时的二级规划问题,并通过影响函数,极小 - 极大假说和 Karush-Kuhn-Tucker(KKT)条件来实现。我们的实验结果表明需要开发更稳健的数据清洗防御措施以应对数据毒化攻击的威胁。
Nov, 2018
本文旨在研究数据污染攻击及其对机器学习的影响,提出差分隐私保护措施以防范攻击, 并设计了攻击算法,试图从目标和输出的角度影响学习器,实验结果表明,攻击者在污染足够多的训练数据时,攻击方法的有效性较高。
Mar, 2019
通过渐进隔离被污染数据的新方法 (PIPD),该论文提出了一种有效的训练策略,以训练一个干净的模型,并降低良性数据被错误分类为污染数据的风险。实验结果表明,PIPD 在多个数据集和 DNN 模型上均表现优异,对多种后门攻击的识别能力显著超过了现有方法。
Dec, 2023
本文对过去 15 年来关于机器学习中中毒攻击和防御的 100 多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
May, 2022
用于训练数据的小扰动攻击机器学习模型的可用性数据中毒攻击有可能泛化到不同的学习算法和范式,并提出了可转移的中毒攻击来生成高频中毒扰动,该攻击具有显著改善的可转移性。
Oct, 2023
介绍了一种新的针对机器学习模型的攻击方式,即通过污染训练数据集,导致模型泄露属于其他用户的私人数据。该攻击包括成员推断、属性推断和数据提取等多方面,可能会危及多方面的用户隐私。
Mar, 2022