EMNLPOct, 2022

BERTScore 不公平:基于语言模型的文本生成度量中的社会偏见

TL;DR本文首次对基于预训练语言模型的度量方法中的社会偏见进行了系统研究,并发现相比传统度量方法,最受欢迎的基于预训练语言模型的度量方法在种族、性别、宗教、外貌、年龄和社会经济地位等 6 个敏感属性上显示出显著的社会偏向。此外,研究发现选择度量方法的范式比选择预训练语言模型对公平性的影响更大,我们提出了消除偏见的适配器方案,将其注入到预训练语言模型层中,从而减轻了基于预训练语言模型的度量方法的偏见,同时保持了评估文本生成的高性能。