探讨了利用深度学习进行漏洞检测的现有技术面临的软件安全领域中高误报、高漏报且性能损失严重的问题,通过收集真实的训练数据和优化模型设计,实现了更好的自动化漏洞预测解决方案,取得了显著优于现有最好模型的预测性能。
Sep, 2020
本文利用因果分析来建模敌对攻击的产生过程,并定义敌对分布以形式化敌对攻击的直观;通过因果解释,本文提出了一种由 Causal inspired Adversarial distribution alignment 方法,CausalAdv,以消除自然分布和敌对分布之间差异的方法,并证明了该方法的有效性。
Jun, 2021
研究使用机器学习技术的安全关键系统需要可靠的不确定性评估。本研究发现,深度神经网络在处理分布外数据时可能会产生过度自信的预测。本研究提出了一种具有保护分布外数据和高准确度的分类器,并提供所有实验代码。
提出了一种不变因果表示学习 (iCaRL) 方法,通过利用广义指数族分布得出数据表示,可以在非线性场景中实现超出分布的泛化,并发现目标的全部直接原因,针对合成和真实数据集提出性能优于基线方法的实验结果。
Feb, 2021
通过对最新的语言模型的能力进行评估,研究了该模型在其训练数据中所使用的编程语言之外的领域的普适性,并检查了自然语言指令在提高这种普适性中的作用。研究通过对真实数据集的模型性能进行评估,以预测代码的脆弱性,从而对于深度学习在软件脆弱性检测中的应用作出了重要贡献。
Jan, 2024
利用机器学习和深度神经网络,针对 C++ 程序开发了一种基于数据驱动的漏洞检测方法,研究结果表明结合源代码和神经网络特征,可以获得更可靠的漏洞检测结果,最高检测能力达到 0.87。
Feb, 2018
本文提出了一种基于深度神经网络的参数概率分布模型来检测分布外和对抗性样本的方法,并探讨了高精度建模特征分布所带来的实际增益。
Sep, 2019
通过考虑因果生成过程,我们通过因果关系解释深度神经网络脆弱性的源头,给出了理论结果来回答攻击的目标所在。为了更真实地生成对抗性示例,我们提出了 CADE 框架,可以生成反事实的对抗性示例,并在白盒、基于迁移的以及随机干预攻击等各种攻击场景中表现出竞争力。
Dec, 2023
基于深度学习模型的漏洞检测器已被证明在最近几年中取得了显著效果。然而,这些检测器决策过程的不透明性使安全分析人员难以理解。为解决这个问题,各种解释方法被提出来通过突出重要特征来解释预测结果,在计算机视觉和自然语言处理等其他领域已经被证明是有效的。不幸的是,对于这些解释方法学习和理解的细粒度漏洞相关代码行等关键特征的深入评估仍然缺乏。在本研究中,我们首先通过两个定量指标(准确度和漏洞代码行覆盖率)衡量,评估了基于图形和序列表示的十种漏洞检测器解释方法的性能。我们的结果表明,仅凭准确度无法充分评估这些方法,因为准确度在不同数据集和检测器之间存在显著波动。随后我们检查了解释方法报告的与漏洞相关的代码行的准确度,并发现所有方法在这个任务中都表现出较差的准确性。这可以归因于解释器在选择重要特征和深度学习检测器学习到的不相关的工件方面的低效性。
本文介绍了一种因果方法 ADML,通过量化网络预测的敏感程度和影响,直接估计对抗攻击的因果参数,并在 CNN 和 Transformer 等不同架构上进行广泛实验,证明了 ADML 的优越性和可行性。
Jul, 2023