EMNLPOct, 2023

多语言模型中偏见的研究:解偏技术的跨语言转移

TL;DR本文研究了多语言模型中去偏技术的可转移性。我们在英语、法语、德语和荷兰语中检验了这些技术的适用性。利用多语种 BERT(mBERT),我们证明了跨语言的去偏技术不仅可行,而且效果显著。令人惊讶的是,我们的发现表明,在应用这些技术于非英语语言时并不存在性能劣势。我们使用 CrowS-Pairs 数据集的翻译,分析结果表明 SentenceDebias 在不同语言之间是最佳技术,在 mBERT 中平均降低了 13% 的偏见。我们还发现,具有额外预训练的去偏技术在分析的语言中展现了跨语言效果的增强,特别是在低资源语言中。这些新的深入认识有助于对多语种语言模型中的偏见缓解有更深层次的理解,并提供了在不同语言环境中进行去偏技术的实践指导。