Jan, 2025

公平代码:评估代码生成中大型语言模型的社会偏见

TL;DR本研究针对现有对代码生成偏见研究有限的现状,提出了一个名为FairCode的新的基准,专门用于评估代码生成中的社会偏见。研究发现,所有测试的大型语言模型都表现出偏见,这表明在代码生成中评估社会偏见的重要性。