ACLJun, 2022

朝 WinoQueer 迈进:开发基于大型语言模型的反同性恋偏见基准

TL;DR本文探究大型语言模型(LLMs)(如 BERT)中是否存在反对酷儿和跨性别者的偏见,并提出一种通过对酷儿社区撰写或关于酷儿社区的数据对模型进行微调以减少这些偏差的方法。通过引入新的基准数据集 WinoQueer,我们发现 BERT 存在明显的反同性恋偏见,但是通过在 LGBTQ + 成员编写的自然语言语料库上进行微调,这种偏见可以得到大部分缓解。