Sep, 2021

可持续模块化去偏语言模型

TL;DR本文通过提出使用专用去偏置适配器的可持续模块化去偏置方法ADELE,解决当前使用预训练语言模型存在的去偏置方法计算代价高和可能导致遗忘的问题,在性别去偏置任务上展示了ADELE的有效性,并证明其模块化特性使其在大规模下游训练后仍能保持公平,并成功将其运用到六种目标语种。