非参数分类的鲁棒性:一种通用攻击和防御
本研究探讨了当输入数据在经过一些修改后变成对抗性样本时,非参数方法的鲁棒性。结果表明,数据分离较好时,最近邻和核分类器的鲁棒性是最优的,直方图则不是。对于普遍的数据分布,通过对抗裁剪预处理后使用最近邻或核分类器也能实现最优的鲁棒性。
Mar, 2020
本文针对分类器的测试攻击问题,引入了一种理论框架,类似于偏差 - 方差理论,并使用该框架对一种典型的非参数分类器 - k 最近邻分类器的鲁棒性进行了分析,并提出了一种新的修改的 1 最近邻分类器,其在大样本极限下具有良好的鲁棒性。
Jun, 2017
本文采用博弈论视角研究分类器对抗攻击的鲁棒性,证明了在确定性情况下不存在一个能保证最优鲁棒性的纳什均衡点,并提出了采用随机化方法构建具有鲁棒性的分类器的算法,实验结果验证了该方法的有效性。
Feb, 2020
我们在最近的工作中(Bubeck,Price,Razenshteyn, arXiv:1805.10204)指出,机器学习中的对抗性例子可能是由于问题固有的计算难度造成的。更确切地说,我们构建了一个二元分类任务,其中(i)存在强大的鲁棒分类器;但在(ii)统计查询模型中无法使用有效算法获得任何非平凡的准确性。在本文中,我们显着加强了(i)和(ii):我们现在构建了一个任务,该任务允许(i')最大限度地鲁棒的分类器(即它可以容忍与示例本身大小相当的扰动);此外,我们证明了在(ii')标准加密假设下学习此任务的计算困难性。
Nov, 2018
深度学习领域的对抗攻击和防御是目前研究的活跃领域。本文针对防御方法进行分类,提出了不同的分类方法:通过增加特征向量的类内紧凑性和类间分隔性来提高对抗鲁棒性,减小或移除非鲁棒图像特征来提高对抗鲁棒性。通过这种重新构架话题的方式,提供了新的视角,深入探讨使网络变得更加强健的潜在因素,启发了更多的解决方案。此外,文献中有一些关于对抗防御成本问题和鲁棒性与准确性之间的权衡的论述,但我们提出的分类方法可以解决这些问题。本文提出了几项挑战,以此推动深度学习研究的进一步发展。
Oct, 2019
本文探讨了一种结合了 k 最近邻算法和深度学习的模型 - Deep k-Nearest Neighbor(DkNN)来提高模型的抵抗 Adversarial Example 威胁,同时提出了一种基于梯度下降的攻击方法,能够有效地攻击 DkNN 模型。
Mar, 2019
本文研究了对抗攻击的鲁棒性理论,聚焦于随机化分类器并通过统计学习理论和信息论提供了其行为的彻底分析。我们引入了随机化分类器的新鲁棒性概念,在此基础上进行了两项新的贡献:提出了一种新的随机化分类器对抗泛化间隙的上界限和对其进行了一种简单而有效的噪声注入方法来设计鲁棒的随机化分类器。我们还在 CIFAR-10 和 CIFAR-100 标准图像数据集上使用深度神经网络的实验结果证实了我们的发现。
Feb, 2021
本文旨在探究深度贝叶斯分类器,该分类器利用有条件的深度生成模型来改善传统朴素贝叶斯方法,并针对对抗性样本开发检测方法,试验结果表明深度贝叶斯分类器具有更好的鲁棒性,而检测方法可有效抵御多种攻击。
Feb, 2018
该论文对敌对学习进行了现代综述,重点关注了对统计分类器攻击的防御,并对最近关于测试时间逃避,数据污染和反向工程攻击以及对策进行了综述,最后提出了一些未解决问题和未来工作方向。
Apr, 2019