通过研究使用大型语言模型(LLMs)在代码审查中的作用,其中包括检测安全漏洞和验证软件功能的有效性,本文发现大型专有模型在这些任务上的性能显著优于小型开源模型,并证明了 LLMs 能够生成与真实漏洞相关的详细描述。
Mar, 2024
使用大型语言模型的程序修复任务中,通过降低训练数据量、使用代码剪裁技术及构建全面的代码修复数据集,我们的系统能够在更少的案例中准确匹配人工修复,并显著提升可用模型的性能。
Feb, 2024
为了加强和增强通过 Large Language Models 生成的代码的安全性,在本文中,我们提出了一种基于强化学习的程序特定修复方法,结合语义和句法奖励机制,重点关注在代码中增加安全和功能性措施。
Jan, 2024
作者描述了一个名为 SALLM 的框架,用于系统地评估大型语言模型生成安全代码的能力,该框架包括一个安全中心的 Python 提示的新数据集,一个用于测试生成代码的评估环境,以及用于从安全代码生成的角度评估模型性能的新度量标准。
Nov, 2023
大型语言模型在漏洞检测方面的推理能力较差,常出现错误定位漏洞代码和错误识别漏洞类型的情况。
通过使用大型语言模型在生成补丁方面具有成本效益和可扩展性,本研究探索了大型语言模型用于生成具有微架构侧信道泄露的易受攻击代码的潜力.
Aug, 2023
大型语言模型(LLMs)在代码生成方面取得了显著进展,但它们的训练使用了来自开源代码库(如 GitHub)的未经筛选的数据,存在意外传播安全漏洞的风险。为了有效地减轻这一问题,本文从软件安全的角度对代码 LLMs 进行了全面研究,并提出了 SecuCoGen 数据集,用于评估和增强代码 LLMs 的安全性能。研究结果发现,现有模型在代码生成中经常忽视安全问题,提出了有效的方法来解决安全漏洞,并提高代码的整体稳健性。此外,研究还发现现有模型在修复漏洞代码方面存在问题,并且某些漏洞类型对模型构成挑战。基于这些发现,我们相信本研究将对软件工程社区产生积极影响,激发改进 LLMs 训练和使用方法的开发,从而实现更安全、更可信的模型部署。
Oct, 2023
研究致力于自动修复代码漏洞的复杂挑战,引入了一种新的代码修改表示格式,使用了先进的大型语言模型(如 Code Llama 和 Mistral)。这些模型在 C 代码漏洞数据集上进行了微调,显着提高了自动代码修复技术的准确性和适应性。研究还对当前的评估指标(如完美预测)进行了关键评估,并强调了在真实场景中反映自动修复模型真正能力的局限性。研究强调了在代码修复任务中提高 LLMs 效果的数据集完整性和训练样本缺失测试数据集的重要性。此工作对数字安全的贡献不仅体现在提高代码安全方面的潜力上,而且推动了这些关键领域的进一步探索与研究。
大型语言模型在网络安全领域的应用综述,包括漏洞检测、恶意软件分析、数据隐私等问题,指出了数据集大小与多样性的重要性以及未来研究方向。
May, 2024
为了解决开源软件中存在的漏洞,我们引入了一种基于大型语言模型和代码文本对齐方法的新型安全补丁检测系统 LLMDA,该系统能够更准确地检测安全补丁,从而增强软件维护的能力。
Dec, 2023