关于数据污染攻击的聚合防御实践方面
我们提出了一种改进的认证防御技术,称为有限聚合,通过将训练集分成较小的互斥子集,然后将其重复组合,以构建较大的(但不相离)子集来训练基础分类器,从而提高 MNIST,CIFAR-10 和 GTSRB 上的(点对点)认证稳健性,并在保持与 DPA 相同的准确性的同时,将已认证部分提高了 3.05%,3.87%和 4.77%,有效地建立了一种新的数据中毒(点对点)认证鲁棒性的技术。
Feb, 2022
该研究提供了两种新的有证明的防御机制,分别是 Deep Partition Aggregation (DPA) 与 Semi-Supervised DPA (SS-DPA),针对插入或删除少量样本的威胁模型(即有害污染攻击)提供了证书,并在 MNIST 和 CIFAR-10 数据集上表现优异。
Jun, 2020
对使用用户提供数据训练的机器学习系统进行的数据毒化攻击问题进行了探讨,构建了数据异常移除后采用经验风险最小化的防御方法下的攻击损失上限并给出了攻击方法,检验了在 MNIST-1-7,Dogfish 数据集上其防御能力较强,而在 IMDB 情感数据集上加入 3% 的毒化数据可将测试误差从 12% 提升至 23%。
Jun, 2017
本文研究了深度图像分类模型中毒的问题,提出了两种防御方案进行后处理,利用少量的受信任的图像标签对修复模型,防御效果优于现有的方案,并指出了检测 / 鲁棒性权衡关系和攻击的适应能力问题。
May, 2023
本文对过去 15 年来关于机器学习中中毒攻击和防御的 100 多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
May, 2022
该论文提出了一种基于随机选择的认证防御体系抵御数据毒化攻击,能通过平均从训练集中抽样的子数据集的分类器预测来实现认证的鲁棒性,该体系允许用户利用训练集和毒化模型的先前知识提高认证准确性,实验表明该方法优于现有技术水平。
Sep, 2020
通过 HIDRA 攻击揭示了维度独立偏差的强防守的实际可能存在的漏洞,这对维度高的聚合算法设计提出了挑战,并暗示了这一领域中中毒攻击与可证明的防御之间的竞争仍然悬而未决。
Dec, 2023
通过观察数据分布的稳定性,我们提出了 AdaAggRL,一种基于强化学习的自适应聚合方法,用于防御复杂的恶意攻击。实验证明,该防御模型在四个真实数据集上显著优于广泛采用的防护模型。
Jun, 2024
本文综述了机器学习分类器训练中的数据污染攻击的安全漏洞,并介绍了几种可行的检测和缓解机制,比较了不同方法的性能以及固有属性,如可靠性、隐私和可解释性。同时,提供了未来研究方向的参考。
Feb, 2022