本文通过引入战略 VC 维来推广对敌方攻击机器学习模型的研究,并针对基本的线性分类问题实例化了该框架。研究结果表明,线性分类器的 SVC 总是被其标准 VC 维上界所限制。
Dec, 2020
研究学习对抗性强预测器的问题,表明任何具有有限 VC 维度的假设类都可以通过不正确的学习规则进行强健的 PAC 学习,而不正确的学习规则是必要的,因为我们展示了具有有限 VC 维度的假设类的例子,不能通过任何正确的学习规则进行强健的 PAC 学习。
Feb, 2019
开发了一种在没有约束条件的情况下近似计算 VC 维度的方法,该方法基于经验风险最小化学习范式,用于表征概念类的粉碎性质。
Aug, 2023
本篇研究了在干净标签数据污染攻击下的强健学习问题,主要关注了攻击能力、PAC 样本复杂度以及线性分类器的不可信等方面。
Mar, 2021
该研究从学习者和第三方认证者的角度正式研究了分类问题,并考虑了半监督学习框架下 VC - 类的适当学习的可能性和不可能性结果。该研究还探讨了黑盒认证在有限查询预算下的黑盒对手视角,提出了一些预测器和扰动类别的分析,并证明了具有多项式查询复杂性的对手的存在可以暗示存在样本高效稳健的学习者。
Jun, 2020
本篇研究了针对神经网络的实例定向毒化攻击,并给出了 PAC 学习和认证的可行性,同时发现实验结果表明,很多模型,特别是最先进的神经网络模型,确实容易受到这种攻击的威胁。
May, 2021
本文研究了机器学习在安全敏感应用中的应用,提出了一种基于梯度的方法来评估分类算法在对抗攻击下的安全性,并针对 PDF 文件中的恶意软件检测任务进行了实验,同时提出了一些相应的反制措施。
Aug, 2017
从学习理论的角度研究鲁棒学习的可行性,考虑样本复杂性,研究了鲁棒学习在拥有随机样本、满足 Lipschitz 条件的数据分布和更强学习能力的情况下的对抗性攻击的脆弱性,提出了基于经验风险最小化的鲁棒算法,并给出了查询复杂性的上下界。
探讨来自多个不可信数据源的学习问题,提出了一种解决方法,该方法可以在合作学习模式下有效应对某些数据源的有偏差性和攻击性干扰,并能够提供有限样本保证。
Feb, 2020
研究黑盒条件下使用得分机制的攻击方法 EvadeHC,该方法在两种 PDF 恶意软件检测器上实现了百分百攻击,大于已知的分类器攻击技术。
May, 2017