ACLSep, 2019

通过建模语料库中的偏见进行端到端偏见缓解

TL;DR本文提出了两种学习策略来训练神经模型,更加稳健,并且更能够迁移到域外的数据集。这些策略利用了数据集的偏差,通过 down-weighting 有偏差的例子,使基础模型减少对偏差的依赖。实验表明,我们的去偏差方法在所有设置中都显著提高了模型的稳健性,并且更好地迁移到其他文本蕴涵数据集上。