本文提出了一种基于深度学习的 MalRNN 方法来生成恶意软件的变种,无需访问目标防病毒模型的规格、置信度分数或动态恶意软件分析等限制,同时对三个深度学习恶意软件检测器进行了有效的躲避,具有较强的实用价值。
Dec, 2020
本研究提出一种新的 RNN 防御方法”sequence squeezing”,并实施了四种其他的防御方法,通过使用这些方法将黑客攻击的有效性从 99.9%降低到 15%。
Jan, 2019
研究卷积神经网络在恶意软件检测中的应用,探索对抗样本在该领域中的影响,发现之前的攻击不如之前报告的那么有效,同时还存在架构上的弱点,容易遭受新的攻击策略,继而探讨了攻击策略的可变性、提高攻击有效性的权衡以及单步攻击的可转移性。
Oct, 2018
通过添加精心选择的扰动来制造对机器学习模型的对抗输入,以此来解决复杂安全问题、引导自主车辆或预测金融市场行为,本文提出了在序列数据中处理递归神经网络的对抗输入序列,表明了先前为前馈神经网络所用算法的类别也可以适用于递归神经网络,对实验结果表明对手可以欺骗机器学习模型从而误导其判断。
Apr, 2016
提出了一种新的对抗样本解决方案,该方案通过随机破坏样本中的特征,阻止攻击者构建有影响力的对抗样本,从而显著提高深度神经网络对抗样本的鲁棒性,同时保持高分类准确性。
Oct, 2016
本论文提出一种名为 MalGAN 的生成对抗网络 (GAN) 算法来生成对手样本,以绕过基于黑盒机器学习的检测模型,相对于传统的基于梯度的对手样本生成算法,MalGAN 能够将检测率降至几乎为零,并使基于重新训练的防御方法难以奏效。
Feb, 2017
应用强化学习算法生成对抗性恶意文件可以有效绕过大多数杀毒软件,揭示了基于机器学习的恶意软件检测系统易受对抗性攻击的脆弱性。
Jun, 2023
通过解释性机器学习方法,这项研究发现一个新的攻击算法可以仅更改文件头中的少数字节来生成恶意软件二进制文件,并提出了一个解决方案来解释深度学习算法中易受对抗性示例影响的问题。
文章介绍了一种针对离散输入数据生成对抗性样本的新型损失函数,该方法被应用于卷积神经网络用于恶意软件检测中,可以成功地将生成的有效载荷插入二进制文件中,使其被检测为良性,并保留原始功能。
Feb, 2018
该研究针对深度神经网络在恶意软件分类中存在的漏洞,通过对对抗样本进行有效构建的攻击,探讨如何构建在样本生成方面更具挑战性的更安全的模型。该研究表明,在对抗样本的制作方面,恶意软件分类与计算机视觉领域之间存在巨大的差异。本文还评估了潜在的防御机制对恶意软件分类的影响,并发现对抗样本的蒸馏和重新训练可以带来很有前途的结果。
Jun, 2016