Aug, 2024

大型语言模型在端到端安全代码生成中的有效性研究

TL;DR本研究针对大型语言模型(LLMs)在软件开发中生成安全代码的能力进行了系统调查,发现其缺乏对场景相关安全风险的意识,导致生成的代码中超过75%存在漏洞。此外,虽然LLMs能在一定程度上修复不安全的代码,但在修复自身生成的代码时表现不佳。为此,研究提出了一种轻量级工具,通过迭代修复程序显著提高了代码修复的成功率。