ACLMay, 2023
残差注意力去偏差的强健自然语言理解
Robust Natural Language Understanding with Residual Attention Debiasing
Fei Wang, James Y. Huang, Tianyi Yan, Wenxuan Zhou, Muhao Chen
TL;DR通过提出 REsidual Attention Debiasing 方法,本研究旨在解决自然语言理解模型中存在的数据集偏见问题,并通过实验表明该方法可以显著提高 BERT 模型在三个 NLU 任务上的表现。