Jan, 2024

BERT和DistilBERT中导致性别偏见的结构研究

TL;DR基于大型Transformer预训练语言模型(PLM)的研究已经改变了自然语言处理(NLP)领域,但这种性能提升伴随着复杂性的增加,以及模型规模的限制。本文通过对两个问题的实证研究探索了BERT和DistilBERT中性别偏见的神经机制和蒸馏过程对性别偏见的影响,发现无法确定特定的层次产生偏见,除少数特定情况外,每一个注意力头都均匀地编码偏见,而蒸馏模型则更均衡地产生偏见。