EvoSeed:揭示深度神经网络在现实世界中的威胁
该论文提出一种基于进化算法的黑盒攻击方法,可以成功生成针对神经网络模型的对抗样本,并且具有鲁棒性和随机性,实验结果表明该算法的复杂度受到模型和数据集的影响,同时对抗样本在某种程度上能够复制神经网络学习到的样本特征。
Jan, 2019
深度神经网络逐渐被用于在组合优化领域中进行算法选择,尤其是在避免设计和计算特征的输入表示方面。然而,深度卷积网络在对抗示例方面存在漏洞,而最近在装箱问题领域中显示出潜力的深度递归网络是否同样易受攻击尚不清楚。本研究使用进化算法在在线装箱基准数据集中找到实例的扰动,导致训练的深度递归网络进行误分类。进一步的分析揭示了一些训练实例的脆弱性以及影响因素,并通过生成大量新的误分类实例提供了更丰富的训练数据以创建更强大的模型。
Jun, 2024
通过元学习方法构建的双网络框架,旨在解决深度神经网络在遇到少量样本的新对抗攻击时检测精确度低的问题。在 CIFAR-10,MNIST 和 Fashion-MNIST 三个数据集上实验表明,该方法相比于传统的对抗攻击检测方法具有更高的有效性。
Aug, 2019
本文针对 CIFAR-10 图像分类任务,评估两种著名的神经进化算法(DENSER 和 NSGA-Net)找到的模型的对抗鲁棒性,结果表明,当这些模型遭受迭代攻击时,它们的精度通常会降至或接近零,而 DENSER 模型则对 L2 威胁模型表现出一定的抵御力,同时观察发现,对输入数据进行的一些预处理技术可能会加剧扰动,从而危害网络的性能。因此,自动设计网络时不应忽视这种影响,尤其是在容易受到对抗攻击的应用程序中。
Jul, 2022
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
这篇论文提出了 GenAttack—— 一种基于遗传算法的无梯度黑盒对抗攻击优化技术,在 MNIST、CIFAR-10 和 ImageNet 数据集上成功地生成了对抗性样本,攻击了最新的图像识别模型,且所需的查询量比之前的攻击方法少了几个数量级,且还能攻击一些针对对抗性训练的防御措施,通过实验证明了遗传算法在黑盒攻击研究中的可行性和前景。
May, 2018
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
该研究提出了一种使用统计学假设检验和模型变化测试的敏感性测量方法,以在运行时检测基于 MNIST 和 CIFAR10 数据集的最新攻击方法生成的对抗样本的方法。结果表明,该方法可以高效准确地检测出对抗样本。
Dec, 2018
本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在 CIFAR-10 数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022