BriefGPT.xyz
May, 2023
此提示衡量<MASK>:评估语言模型中的偏见评估
This Prompt is Measuring <MASK>: Evaluating Bias Evaluation in Language Models
HTML
PDF
Seraphina Goldfarb-Tarrant, Eddie Ungless, Esma Balkir, Su Lin Blodgett
TL;DR
通过量化和定性分析90个偏见测试,本文在应用测量建模框架来创造捕捉偏见测试目标的属性分类法的基础上,揭示了偏见测试的核心概念和操作存在的不明确、含蓄、或不匹配的偏差种类及其频度,并提出指导方案,以便更全面地探索偏见空间和更全面地评估语言模型的实验设计。
Abstract
bias research
in
nlp
seeks to analyse models for social biases, thus helping
nlp
practitioners uncover, measure, and mitigate social harms
→