基于群体进化算法的神经网络黑盒攻击
这篇论文提出了 GenAttack—— 一种基于遗传算法的无梯度黑盒对抗攻击优化技术,在 MNIST、CIFAR-10 和 ImageNet 数据集上成功地生成了对抗性样本,攻击了最新的图像识别模型,且所需的查询量比之前的攻击方法少了几个数量级,且还能攻击一些针对对抗性训练的防御措施,通过实验证明了遗传算法在黑盒攻击研究中的可行性和前景。
May, 2018
本文探究了 DNN 的黑盒攻击方案,使用现有的白盒攻击方法产生的采样样本进行训练替代模型,并提出主动学习策略和多样性准则以优化其表现,实验证明该方法可以将查询数量减少超过 90% 并保持黑盒攻击成功率。
Sep, 2018
本文针对 CIFAR-10 图像分类任务,评估两种著名的神经进化算法(DENSER 和 NSGA-Net)找到的模型的对抗鲁棒性,结果表明,当这些模型遭受迭代攻击时,它们的精度通常会降至或接近零,而 DENSER 模型则对 L2 威胁模型表现出一定的抵御力,同时观察发现,对输入数据进行的一些预处理技术可能会加剧扰动,从而危害网络的性能。因此,自动设计网络时不应忽视这种影响,尤其是在容易受到对抗攻击的应用程序中。
Jul, 2022
本文提出一种黑盒对抗攻击算法,通过在输入的小区域内查找概率密度分布,不需要访问 DNN 的内部层或权重,实现了成功攻击不同神经网络的目标。此方法表现出色,可用于测试防御技术。结果表明,对抗训练仍然是最佳的防御技术之一。
May, 2019
本文提出了一种针对聚类算法鲁棒性的黑盒对抗攻击算法,该算法可以通过一个黑盒聚类算法生成对抗性样本,并对其鲁棒性进行测试,实验结果表明该算法可以有效测试不同类型的聚类算法的鲁棒性。
Sep, 2020
本文旨在评估最先进的人脸识别模型在基于决策的黑盒攻击环境下的鲁棒性能,并提出一种新的进化攻击算法以减少搜索空间维度,实验结果表明该方法能够在较少的查询次数内诱导输入的最小扰动,并成功地用于攻击一个真实的人脸识别系统。
Apr, 2019
本文提出了一种新的方法,利用自然进化策略在黑盒攻击下生成可靠的对抗样本,并通过新的算法在部分信息下进行有针对性的攻击,无需使用梯度,可以使用少量的请求操作,成功地对商业部署的机器学习系统进行了第一次有针对性的攻击。
Dec, 2017
深度神经网络逐渐被用于在组合优化领域中进行算法选择,尤其是在避免设计和计算特征的输入表示方面。然而,深度卷积网络在对抗示例方面存在漏洞,而最近在装箱问题领域中显示出潜力的深度递归网络是否同样易受攻击尚不清楚。本研究使用进化算法在在线装箱基准数据集中找到实例的扰动,导致训练的深度递归网络进行误分类。进一步的分析揭示了一些训练实例的脆弱性以及影响因素,并通过生成大量新的误分类实例提供了更丰富的训练数据以创建更强大的模型。
Jun, 2024
通过对比常规 VGG-9 人工神经网络和等效的 Spiking Neural Network 之间在白盒和黑盒情况下对不同类型单步和多步 FGSM(快速梯度符号法)攻击的准确度降低,证明 SNN 对黑盒攻击更具有韧性。 此外,研究发现 SNN 的鲁棒性很大程度上取决于相应的训练机制。 最后,提出了一个简单而有效的框架,用于从 SNN 中制造对抗性攻击。
May, 2019