BriefGPT.xyz
Jun, 2023
通过大规模语言模型揭示网络社区中的偏见
Exposing Bias in Online Communities through Large-Scale Language Models
HTML
PDF
Celine Wald, Lukas Pfahler
TL;DR
本文利用自然语言生成中存在的偏见漏洞,探索了六个不同在线社区的偏见。通过对 GPT-Neo 1.3B 进行精细调整,该文评估了生成模型的偏见,并通过不同的人口属性来比较情感和毒性价值,从而揭示了各种模型的偏见类型和强度的差异。此外,本文所生成的示例还展示了在偏见研究中使用自动情感和毒性分类器的局限性。
Abstract
Progress in
natural language generation
research has been shaped by the ever-growing size of
language models
. While large
language models
→