Sep, 2024

AutoSafeCoder:一种通过静态分析和模糊测试保障大型语言模型代码生成安全的多智能体框架

TL;DR本研究解决了传统代码生成方法在安全性方面的不足,特别是单一智能体生成代码时容易引入漏洞的问题。提出的AutoSafeCoder框架通过三个智能体的协作,结合静态分析和动态模糊测试,显著提升了代码的安全性。实验结果表明,与基线模型相比,该方法减少了13%的代码漏洞,同时确保了功能的完整性。