BriefGPT.xyz
Ask
alpha
关键词
residual attention debiasing
搜索结果 - 1
ACL
残差注意力去偏差的强健自然语言理解
通过提出 REsidual Attention Debiasing 方法,本研究旨在解决自然语言理解模型中存在的数据集偏见问题,并通过实验表明该方法可以显著提高 BERT 模型在三个 NLU 任务上的表现。
PDF
a year ago
Prev
Next