BriefGPT.xyz
Jan, 2025
公平代码:评估代码生成中大型语言模型的社会偏见
FairCode: Evaluating Social Bias of LLMs in Code Generation
HTML
PDF
Yongkang Du, Jen-tse Huang, Jieyu Zhao, Lu Lin
TL;DR
本研究针对现有对代码生成偏见研究有限的现状,提出了一个名为FairCode的新的基准,专门用于评估代码生成中的社会偏见。研究发现,所有测试的大型语言模型都表现出偏见,这表明在代码生成中评估社会偏见的重要性。
Abstract
Large Language Models
(LLMs) have demonstrated significant capability in
Code Generation
, drawing increasing attention to the evaluation of the quality and safety of their outputs. However, research on
→