ATWM: 对抗训练防御对抗恶意软件
这项调查研究针对网络安全中恶意软件分类展示了当前对抗性攻击和防御策略的研究,将方法分类为生成模型、基于特征的方法、集成方法和混合策略,并评估了每个领域的优点和缺点,同时讨论了常用的数据集和评估标准,最后提出了开放性研究难题和未来的研究选项。
Dec, 2023
提出了一种新的对抗样本解决方案,该方案通过随机破坏样本中的特征,阻止攻击者构建有影响力的对抗样本,从而显著提高深度神经网络对抗样本的鲁棒性,同时保持高分类准确性。
Oct, 2016
文章介绍了一种针对离散输入数据生成对抗性样本的新型损失函数,该方法被应用于卷积神经网络用于恶意软件检测中,可以成功地将生成的有效载荷插入二进制文件中,使其被检测为良性,并保留原始功能。
Feb, 2018
研究卷积神经网络在恶意软件检测中的应用,探索对抗样本在该领域中的影响,发现之前的攻击不如之前报告的那么有效,同时还存在架构上的弱点,容易遭受新的攻击策略,继而探讨了攻击策略的可变性、提高攻击有效性的权衡以及单步攻击的可转移性。
Oct, 2018
本文通过对恶意软件检测方法的深度学习进行的攻击实验证明,机器学习以及深度神经网络存在易受攻击的漏洞,并提出基于梯度的攻击方法,可以使恶意软件逃脱检测而不影响其入侵功能。
Mar, 2018
机器学习在自动恶意软件检测方面表现出色,但机器学习模型也存在容易受到对抗攻击的漏洞。本篇文章围绕生成对抗恶意软件样本的问题展开讨论,特别关注恶意的 Windows Portable Executable(PE)文件。我们总结并比较了以对抗机器学习为目标的恶意软件检测方法,并应用了基于梯度、基于进化算法和基于强化学习的方法来生成对抗样本,并将生成的样本与选定的杀毒软件进行测试。结果显示,对先前检测到的恶意软件应用优化的改动可能会将文件错误地分类为良性。已知生成的恶意软件样本可成功用于攻击其他检测模型,并且使用多种生成器组合可以创建新的样本以逃避检测。实验显示采用强化学习方法的 Gym-malware 生成器具有最大的实际潜力,其平均生成样本时间为 5.73 秒,最高平均逃避率为 44.11%。将 Gym-malware 生成器与自身相结合可提高逃避率至 58.35%。
Aug, 2023
该研究针对深度神经网络在恶意软件分类中存在的漏洞,通过对对抗样本进行有效构建的攻击,探讨如何构建在样本生成方面更具挑战性的更安全的模型。该研究表明,在对抗样本的制作方面,恶意软件分类与计算机视觉领域之间存在巨大的差异。本文还评估了潜在的防御机制对恶意软件分类的影响,并发现对抗样本的蒸馏和重新训练可以带来很有前途的结果。
Jun, 2016
基于深度学习的恶意软件检测器对于被有意修改以逃避检测的恶意软件实例,即对抗性恶意软件实例,显示出易受攻击。为了应对深度学习检测器的这种脆弱性,我们提出了一个受随机平滑启发的针对对抗性恶意软件实例的实用防御方案。该方案使用随机消融平滑的方式训练基于消融版本的可执行文件的基础分类器,在测试时,根据分类器对原始可执行文件的一组消融版本进行的预测,将给定输入可执行文件的最常见预测类作为最终分类。实验证明,相比未经平滑处理的分类器,我们提出的基于消融的模型在 BODMAS 数据集上对各种最先进的规避攻击表现出更高的鲁棒性和泛化能力。
Aug, 2023