Nov, 2024
大语言模型角色扮演中的偏见基准测试
Benchmarking Bias in Large Language Models during Role-Playing
TL;DR本研究针对大语言模型在角色扮演中可能存在的社会偏见进行了系统分析,填补了相关研究的空白。我们提出了BiasLens,一个旨在检测和揭示这些偏见的公平性测试框架,并通过生成33,000个问题对六个大型模型进行了评估,发现了72,716个偏见回应,显示了角色扮演情境下偏见的普遍存在,这为未来研究提供了重要的基准数据。