针对二进制编码恶意软件的对抗深度学习鲁棒检测
文章介绍了一种针对离散输入数据生成对抗性样本的新型损失函数,该方法被应用于卷积神经网络用于恶意软件检测中,可以成功地将生成的有效载荷插入二进制文件中,使其被检测为良性,并保留原始功能。
Feb, 2018
本文通过对恶意软件检测方法的深度学习进行的攻击实验证明,机器学习以及深度神经网络存在易受攻击的漏洞,并提出基于梯度的攻击方法,可以使恶意软件逃脱检测而不影响其入侵功能。
Mar, 2018
研究卷积神经网络在恶意软件检测中的应用,探索对抗样本在该领域中的影响,发现之前的攻击不如之前报告的那么有效,同时还存在架构上的弱点,容易遭受新的攻击策略,继而探讨了攻击策略的可变性、提高攻击有效性的权衡以及单步攻击的可转移性。
Oct, 2018
本文提出了一种基于深度学习的 MalRNN 方法来生成恶意软件的变种,无需访问目标防病毒模型的规格、置信度分数或动态恶意软件分析等限制,同时对三个深度学习恶意软件检测器进行了有效的躲避,具有较强的实用价值。
Dec, 2020
该研究针对深度神经网络在恶意软件分类中存在的漏洞,通过对对抗样本进行有效构建的攻击,探讨如何构建在样本生成方面更具挑战性的更安全的模型。该研究表明,在对抗样本的制作方面,恶意软件分类与计算机视觉领域之间存在巨大的差异。本文还评估了潜在的防御机制对恶意软件分类的影响,并发现对抗样本的蒸馏和重新训练可以带来很有前途的结果。
Jun, 2016
提出了一种新的对抗样本解决方案,该方案通过随机破坏样本中的特征,阻止攻击者构建有影响力的对抗样本,从而显著提高深度神经网络对抗样本的鲁棒性,同时保持高分类准确性。
Oct, 2016
基于深度学习的恶意软件检测器对于被有意修改以逃避检测的恶意软件实例,即对抗性恶意软件实例,显示出易受攻击。为了应对深度学习检测器的这种脆弱性,我们提出了一个受随机平滑启发的针对对抗性恶意软件实例的实用防御方案。该方案使用随机消融平滑的方式训练基于消融版本的可执行文件的基础分类器,在测试时,根据分类器对原始可执行文件的一组消融版本进行的预测,将给定输入可执行文件的最常见预测类作为最终分类。实验证明,相比未经平滑处理的分类器,我们提出的基于消融的模型在 BODMAS 数据集上对各种最先进的规避攻击表现出更高的鲁棒性和泛化能力。
Aug, 2023
本文提出了一种基于对抗训练的对抗恶意软件防御方法,通过对预处理的简单对抗样本进行防御,提高了模型的对抗防御能力,在两组数据集的三种攻击方法中表现良好,且不影响模型准确性。
Jul, 2023