循环神经网络防御对抗样本的方法
本文提出了一种新颖的算法来生成顺序敌对示例,并用于攻击基于循环神经网络的恶意软件检测系统,结果表明 RNN 基础恶意软件检测算法无法检测到大多数生成的恶意敌对示例,这意味着该提出的模型能够有效地绕过检测算法。
May, 2017
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
该研究提出了一种新的策略,即特征压缩,用于检测对深度神经网络模型的对抗性攻击,通过减小搜索空间,该方法显著提高了攻击检测的准确性和少量误报率,并结合其他防御方法,可对抗最先进的攻击。
Apr, 2017
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
通过添加精心选择的扰动来制造对机器学习模型的对抗输入,以此来解决复杂安全问题、引导自主车辆或预测金融市场行为,本文提出了在序列数据中处理递归神经网络的对抗输入序列,表明了先前为前馈神经网络所用算法的类别也可以适用于递归神经网络,对实验结果表明对手可以欺骗机器学习模型从而误导其判断。
Apr, 2016
提出了一种新的对抗样本解决方案,该方案通过随机破坏样本中的特征,阻止攻击者构建有影响力的对抗样本,从而显著提高深度神经网络对抗样本的鲁棒性,同时保持高分类准确性。
Oct, 2016
本文综述了近期深度学习中对于对抗攻击和防御技术的研究进展,聚焦于基于深度神经网络的分类模型,并进行了对攻击和防御方法的分类和评价,其中重点介绍了正则化方法在提高模型的鲁棒性方面的应用。此外,还探索了新型攻击方式,如基于搜索、决策、降维和物理世界攻击,并提出了对于未来研究的建议。
Mar, 2023
本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在 CIFAR-10 数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022