干净标签攻击下的鲁棒学习
本篇研究了针对神经网络的实例定向毒化攻击,并给出了 PAC 学习和认证的可行性,同时发现实验结果表明,很多模型,特别是最先进的神经网络模型,确实容易受到这种攻击的威胁。
May, 2021
研究了如何在多个角度上面对数据污染攻击实现强大的鲁棒性保证和提供可靠的预测,同时提供算法计算文本类问题的区间,并针对线性分离器提供了真正的多项式时间算法。
Mar, 2022
从学习理论的角度研究鲁棒学习的可行性,考虑样本复杂性,研究了鲁棒学习在拥有随机样本、满足 Lipschitz 条件的数据分布和更强学习能力的情况下的对抗性攻击的脆弱性,提出了基于经验风险最小化的鲁棒算法,并给出了查询复杂性的上下界。
Aug, 2023
本文研究机器学习准确率受到恶意攻击的情况下的学习界限问题,扩展了 PAC-learning 框架进行探讨,并考虑对抗性 VC-dimension 的影响。
Jun, 2018
本研究发现了一种对具有证明鲁棒性的分类器构成威胁的数据污染攻击,并提出了一种新型双层优化数据污染攻击,可降低其整个目标类别的平均有保障半径(ACR),以及降低 30%以上的目标类别平均有保障半径(ACR)
Dec, 2020
通过将对抗性鲁棒学习简化到标准的 PAC 学习问题,即仅使用黑盒非鲁棒性学习器学习鲁棒性预测器的学习复杂度,我们提供了一个降低学习复杂度的方法,并证明了其数学上的正确性。同时,我们也给出了一个必要的下界。
Oct, 2020
本文研究了线性学习器的无差别毒化问题,发现如果类别数据分布良好分离且限制集的大小也很小,线性学习器就可以抵抗无差别毒化攻击,并对最新攻击策略的在不同数据集间性能差异做出理论解释。
Jul, 2023
研究在未知扰动集合情况下,通过与攻击者的交互或访问攻击预测器来学习对抗性示例下的鲁棒性预测器问题,并考虑不同交互模型,对预测器假设类的 VC 和 Littlestone 维度进行样本复杂度上界,以及所需交互或成功攻击次数的上下界,无需对扰动集合进行任何假设。
Feb, 2021
持续学习系统容易受到恶意误导,本文提出了一种新的持续学习过程中的数据污染攻击类别,命名为 PACOL,通过实验展示了标签翻转和新的敌对污染攻击(PACOL)对持续学习系统的影响,评估了基于生成重放和正则化的持续学习方法对攻击方法的脆弱性,并讨论了攻击的隐蔽性和防御方法的有效性。
Nov, 2023
本文提出了一个新的机器学习算法来防御数据污染攻击,并通过随机平滑技术,构建了具有证明能力的线性分类器,可以高可信地抵御标签混淆攻击。此外,本文所提出的方法不需要对训练和测试数据集的分布作任何假设。
Feb, 2020