分析最近邻居对于对抗样本的鲁棒性
本文探讨了一种结合了 k 最近邻算法和深度学习的模型 - Deep k-Nearest Neighbor(DkNN)来提高模型的抵抗 Adversarial Example 威胁,同时提出了一种基于梯度下降的攻击方法,能够有效地攻击 DkNN 模型。
Mar, 2019
提出了一个基于神经网络中间层激活的 k - 最近邻(kNN)的防御机制来对抗对手样本,该方案在 MNIST 和 CIFAR-10 上的 l2 扰动上超过了最先进的防御措施,我们的模型在 MNIST 上是 3.07,CIFAR-10 为 2.3。此外,我们提出了一种简单的可辨认下界,该下界是在 Lipschitz 网络学习的表示的基础上,用 1-NN 实现的,我们的模型提供与其他具有类似准确度的 MNIST 的方案相当的平均下界。
Jun, 2019
文章系统研究了非参数分类器的对抗性问题,提出了全新的数据预处理方案 adverasrial pruning,并且得到了理论最优的鲁棒分类器,实验结果显示该方法更好或竞争性更好。
Jun, 2019
本研究探讨了当输入数据在经过一些修改后变成对抗性样本时,非参数方法的鲁棒性。结果表明,数据分离较好时,最近邻和核分类器的鲁棒性是最优的,直方图则不是。对于普遍的数据分布,通过对抗裁剪预处理后使用最近邻或核分类器也能实现最优的鲁棒性。
Mar, 2020
本研究针对深度学习在对抗性环境下的鲁棒性和预测不可解释性等问题,通过将 k-NN 算法与深度学习结合,提出了一种名为 DkNN 的混合分类器,它可以为输入数据提供信心估计和人类可解释的预测解释。实验证明,DkNN 算法可以准确识别模型外部的输入,同时提供直观和有用的模型失败解释。
Mar, 2018
本篇论文的研究内容为:计算最小对抗性扰动的问题。研究者们提出了第一个能够计算最小对抗性扰动的算法,将问题用凸二次规划问题的列表进行了表示,用于 1-NN 模型的算法能够有效地解决这个问题。对于更大的 $K$-NN 模型,我们表明同样的表示形式可以帮助我们有效地计算最小对抗性扰动的上限和下限,这可用于攻击和验证。
Jun, 2019
利用 kNN 和 rNN 内在的多数投票机制可以提供针对数据污染攻击和后门攻击的保护,并且我们的评估结果表明 kNN 和 rNN 的内在保护机制胜过目前最先进的合格防御。
Dec, 2020
通过拓扑学概念和度量空间的关系,本研究探讨机器学习领域的对抗样本问题,得出了必要和充分的条件来判断分类器在面对对抗样本时是否鲁棒。研究结果表明,即使只有一个不必要的特征,也会影响分类器的鲁棒性,因此正确的特征表示学习对于获得既准确又 robust 的分类器非常重要。
Dec, 2016
在这篇论文中,我们分析了 1 Nearest Neighbor(1NN)分类器的对抗鲁棒性,并将其性能与对抗性训练进行了比较。通过实验证明,在来自 CIFAR10 的 45 个不同二进制图像分类问题上,1NN 在平均对抗准确性方面优于 TRADES(一种强大的对抗性训练算法)。此外,对于与训练期间稍有不同的扰动,我们的实验结果表明,1NN 在 69 个经预训练的 CIFAR10 的鲁棒模型中超过了几乎所有模型。综上所述,我们的结果表明,现代对抗性训练方法仍然无法达到简单的 1NN 分类器的鲁棒性。
Apr, 2024