AAAIDec, 2022

特征层面的无偏自然语言理解

TL;DR本文提出了一种名为 Debiasing Contrastive Learning (DCT) 的 NLU 去偏置方法,该方法通过对比学习,同时缓解了编码偏置潜在特征和偏置影响的动态性,使用正向采样和动态负向抽样策略选取了最小相似度的偏态样本和动态选择最相似的负向偏态样本,实验表明,DCT 在保持分布内性能的同时,优于最先进的基线算法,在分布之外的数据集上表现出色,并减少了模型表示中的偏置潜在特征。