具有对抗鲁棒性的深度神经网络及其在恶意软件检测中的应用
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
该研究针对深度神经网络在恶意软件分类中存在的漏洞,通过对对抗样本进行有效构建的攻击,探讨如何构建在样本生成方面更具挑战性的更安全的模型。该研究表明,在对抗样本的制作方面,恶意软件分类与计算机视觉领域之间存在巨大的差异。本文还评估了潜在的防御机制对恶意软件分类的影响,并发现对抗样本的蒸馏和重新训练可以带来很有前途的结果。
Jun, 2016
本文介绍了一种基于对深度神经网络输入输出映射的精确理解的算法,用于制造可以轻易被误分类的针对深度神经网络的对抗样本,通过计算不同类型的样本之间的硬度度量对不同的类型的样本抗击抗性进行了评估,并提出了防御针对性攻击的初步方法。
Nov, 2015
文章介绍了一种针对离散输入数据生成对抗性样本的新型损失函数,该方法被应用于卷积神经网络用于恶意软件检测中,可以成功地将生成的有效载荷插入二进制文件中,使其被检测为良性,并保留原始功能。
Feb, 2018
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
研究卷积神经网络在恶意软件检测中的应用,探索对抗样本在该领域中的影响,发现之前的攻击不如之前报告的那么有效,同时还存在架构上的弱点,容易遭受新的攻击策略,继而探讨了攻击策略的可变性、提高攻击有效性的权衡以及单步攻击的可转移性。
Oct, 2018
本文通过对恶意软件检测方法的深度学习进行的攻击实验证明,机器学习以及深度神经网络存在易受攻击的漏洞,并提出基于梯度的攻击方法,可以使恶意软件逃脱检测而不影响其入侵功能。
Mar, 2018
本文提出了一种基于对抗训练的对抗恶意软件防御方法,通过对预处理的简单对抗样本进行防御,提高了模型的对抗防御能力,在两组数据集的三种攻击方法中表现良好,且不影响模型准确性。
Jul, 2023
通过元学习方法构建的双网络框架,旨在解决深度神经网络在遇到少量样本的新对抗攻击时检测精确度低的问题。在 CIFAR-10,MNIST 和 Fashion-MNIST 三个数据集上实验表明,该方法相比于传统的对抗攻击检测方法具有更高的有效性。
Aug, 2019
本文介绍了一种利用深度学习神经网络中 Bayesian 不确定性估计和密度估计的方法,可以实现对于对抗样本的检测,具有很好的泛化性能,并在标准分类任务上取得了 85-93% 的 ROC-AUC 表现。
Mar, 2017