机器学习中的中毒攻击容易受到数据集可分离性和子群体属性的影响,本文通过实验发现了这些因素对不同子群体的有效性产生的影响,并且还发现了对某些语义相关的子群体具有易受攻击的特性。
Nov, 2023
介绍了一种新的针对机器学习模型的攻击方式,即通过污染训练数据集,导致模型泄露属于其他用户的私人数据。该攻击包括成员推断、属性推断和数据提取等多方面,可能会危及多方面的用户隐私。
Mar, 2022
我们引入了一种针对算法公平性的优化框架,并开发了一种基于梯度的毒化攻击方法,旨在在数据的不同群体之间引入分类偏差,我们实验性地表明,我们的攻击不仅在白盒环境中有效,特别是在黑盒情况下,也对目标模型有很大影响,我们相信我们的发现为完全新的针对算法公平性在不同场景中的对抗攻击定义铺平了道路,并且研究这些漏洞将有助于未来设计更加稳健的算法和对策。
Apr, 2020
此研究考虑了数据污染攻击领域,并对在线学习中的数据污染攻击进行了系统性研究,采用了一种优化策略并提出了三种解决方案,最终讨论了防御成功所需的因素。
Aug, 2018
本文对过去 15 年来关于机器学习中中毒攻击和防御的 100 多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
May, 2022
用于训练数据的小扰动攻击机器学习模型的可用性数据中毒攻击有可能泛化到不同的学习算法和范式,并提出了可转移的中毒攻击来生成高频中毒扰动,该攻击具有显著改善的可转移性。
Oct, 2023
对使用用户提供数据训练的机器学习系统进行的数据毒化攻击问题进行了探讨,构建了数据异常移除后采用经验风险最小化的防御方法下的攻击损失上限并给出了攻击方法,检验了在 MNIST-1-7,Dogfish 数据集上其防御能力较强,而在 IMDB 情感数据集上加入 3% 的毒化数据可将测试误差从 12% 提升至 23%。
Jun, 2017
该论文系统研究了线性回归模型中的污染攻击和其对策,提出了一个特定于线性回归的理论优化框架,并设计了一种面对污染攻击高度抗干扰的新型防御方法。
Apr, 2018
该论文提出了一种基于反向梯度优化的毒化攻击算法,能够对梯度优化训练的广泛学习算法进行攻击,并在实际应用中进行了有效性评估。
Aug, 2017
该论文研究了基于深度学习的认证系统对于后门攻击的脆弱性,特别是通过数据注入的后门攻击,通过注入极少的毒数据,攻击者可以成功实现攻击,进而窃取敏感信息,从而为后续研究防御策略提供了研究价值。
Dec, 2017