FairFuzz: 针对罕见条件进行测试以快速提高灰盒模糊测试覆盖率
本研究旨在提出一种新型的 fuzzing 方法,它从程序当前状态信息入手,利用强化学习优化变异算子,以达到更全面的覆盖率,并使程序监视器与深度神经网络相连接,能够同时利用强化学习以及 fuzzing 的优势来优化测试用例。
Jul, 2018
利用预训练的大型语言模型 (LLM) 增强结构化数据的灰盒模糊测试,通过利用 LLM 的先前训练知识和基于 Magma 等基准的实验,LLAMAFUZZ 比其他方法平均提高了 41 个漏洞的检测,实现了一致的性能提升。
Jun, 2024
本文介绍了一种名为 ChatFuzz 的灰盒模糊测试工具,它利用生成式人工智能生成特定格式的输入,以提高输入测试质量和覆盖范围,实验结果表明在特定情况下,该工具能比当前最先进的 AFL++ 模糊测试工具更好地检测程序漏洞。
Jun, 2023
现代计算系统在硬件作为信任根基上依赖较重。然而,不断增加的复杂性导致了跨层攻击可以利用的安全关键弱点。我们提出了一种新颖的基于 ML 的硬件模糊测试工具 ChatFuzz,它利用类似 ChatGPT 的 LLMs 来理解处理器语言,并通过代码覆盖度度量指标引导输入生成,以此解决现有工具在实际时间范围内无法全面覆盖复杂硬件设计的问题。在测试中,与最先进的模糊测试工具相比,ChatFuzz 在仅 52 分钟内达到了 75% 的条件覆盖率,而后者需要 30 个小时的时间窗口才能达到类似的覆盖率。此外,我们的工具在 130 个小时的时间范围内,仅提供有限的 10 个模拟实例 / 许可证情况下即可达到 80% 的覆盖率。在此期间,共进行了 19.9 万个测试用例,其中 6 千个测试用例与处理器的黄金模型产生了差异。我们的分析发现了 10 多个独特的不匹配之处,包括 RocketCore 中的两个新 bug 和与 RISC-V ISA 模拟器的差异。
Apr, 2024
该研究介绍了 Fuzz4All,第一个在多种不同输入语言和不同语言特性中的通用模糊测试器,利用大型语言模型作为输入生成和变异引擎,以产生多样化和真实性的输入,对多种系统进行评估,发现了 76 个广泛使用的系统中的漏洞。
Aug, 2023
使用大型语言模型 (LLMs) 构建的 WhiteFox 是第一个使用源代码信息进行白盒编译器模糊测试的编译器模糊器,可以生成高质量的测试来执行需要复杂条件的深度优化,发现了 96 个错误,其中 80 个为新错误,并且已经修复了 51 个。
Oct, 2023
本文提出了 DLFuzz, 第一个可引导 DL 系统暴露错误行为的差分模糊测试框架,相比于 DeepXplore 具有更高的神经元覆盖率、更高效的寻找故障输入、更小的干扰等优势。
Aug, 2018
本文介绍了一种将模糊测试和大型语言模型相结合的新型数据增强技术 **FuzzAug**,用于增强神经测试生成数据集,从而提高代码生成模型的准确性和分支覆盖率,增强自动化软件测试的效用。
Jun, 2024
本研究介绍了用于发现神经网络中仅在罕见输入下出现错误的自动化软件测试技术,其中关键技术为基于覆盖率的模糊测试方法,并提出快速近似最近邻居算法来提供覆盖度量,最终开发了 TensorFuzz 开源库以实现这些技术。
Jul, 2018