Feb, 2023
FairPy:一个大型语言模型的社会偏见评估与缓解工具包
FairPy: A Toolkit for Evaluation of Social Biases and their Mitigation
in Large Language Models
TL;DR本文全面评估了常用的预训练语言模型(如BERT、GPT-2等)在种族、性别、种族、年龄等方面所表现出的各种偏见,并介绍了一种工具包,提供了插入数学工具程序以识别偏见的接口,并让用户使用这些度量来测试现有的和自定义的模型。此工具还具有消除偏见的功能。