ACLMay, 2023

残差注意力去偏差的强健自然语言理解

TL;DR通过提出 REsidual Attention Debiasing 方法,本研究旨在解决自然语言理解模型中存在的数据集偏见问题,并通过实验表明该方法可以显著提高 BERT 模型在三个 NLU 任务上的表现。