本篇研究了在干净标签数据污染攻击下的强健学习问题,主要关注了攻击能力、PAC 样本复杂度以及线性分类器的不可信等方面。
Mar, 2021
研究了如何在多个角度上面对数据污染攻击实现强大的鲁棒性保证和提供可靠的预测,同时提供算法计算文本类问题的区间,并针对线性分离器提供了真正的多项式时间算法。
Mar, 2022
持续学习系统容易受到恶意误导,本文提出了一种新的持续学习过程中的数据污染攻击类别,命名为 PACOL,通过实验展示了标签翻转和新的敌对污染攻击(PACOL)对持续学习系统的影响,评估了基于生成重放和正则化的持续学习方法对攻击方法的脆弱性,并讨论了攻击的隐蔽性和防御方法的有效性。
Nov, 2023
通过利用差分隐私和采样高斯机制,我们的模型对有限数量的有毒样本提供了确保每个测试实例预测不变的保证,从而提供了超过以前认证提供的两倍以上的对抗鲁棒性。
Aug, 2023
用于训练数据的小扰动攻击机器学习模型的可用性数据中毒攻击有可能泛化到不同的学习算法和范式,并提出了可转移的中毒攻击来生成高频中毒扰动,该攻击具有显著改善的可转移性。
Oct, 2023
本文研究了线性学习器的无差别毒化问题,发现如果类别数据分布良好分离且限制集的大小也很小,线性学习器就可以抵抗无差别毒化攻击,并对最新攻击策略的在不同数据集间性能差异做出理论解释。
Jul, 2023
我们引入了一种针对算法公平性的优化框架,并开发了一种基于梯度的毒化攻击方法,旨在在数据的不同群体之间引入分类偏差,我们实验性地表明,我们的攻击不仅在白盒环境中有效,特别是在黑盒情况下,也对目标模型有很大影响,我们相信我们的发现为完全新的针对算法公平性在不同场景中的对抗攻击定义铺平了道路,并且研究这些漏洞将有助于未来设计更加稳健的算法和对策。
Apr, 2020
在两个代理环境中,研究了攻击者通过修改同伴的策略来隐性毒化其中一个代理器的有效环境的针对性中毒攻击,并提出了一个优化框架,用于设计最优攻击。通过实验展示了算法的有效性。
Feb, 2023
该研究从学习者和第三方认证者的角度正式研究了分类问题,并考虑了半监督学习框架下 VC - 类的适当学习的可能性和不可能性结果。该研究还探讨了黑盒认证在有限查询预算下的黑盒对手视角,提出了一些预测器和扰动类别的分析,并证明了具有多项式查询复杂性的对手的存在可以暗示存在样本高效稳健的学习者。
Jun, 2020
本研究发现了一种对具有证明鲁棒性的分类器构成威胁的数据污染攻击,并提出了一种新型双层优化数据污染攻击,可降低其整个目标类别的平均有保障半径(ACR),以及降低 30%以上的目标类别平均有保障半径(ACR)
Dec, 2020