Nov, 2023

使用 SALLMS 评估 LLM 生成代码的安全性

TL;DR作者描述了一个名为 SALLM 的框架,用于系统地评估大型语言模型生成安全代码的能力,该框架包括一个安全中心的 Python 提示的新数据集,一个用于测试生成代码的评估环境,以及用于从安全代码生成的角度评估模型性能的新度量标准。