Jul, 2024

您的AI生成代码真的安全吗?基于CodeSecEval的安全代码生成对大型语言模型的评估

TL;DR大规模语言模型(LLMs)在代码生成和修复方面取得了重大进展,但它们使用来自GitHub等开源存储库的未经过滤的数据进行训练可能会传播安全漏洞。本文旨在全面评估和增强代码LLMs的安全性,并提出了不同策略来减轻这些安全漏洞。