稳健自然语言推理中的模型无关去偏策略的实证研究
采用对抗性训练和敌对对抗方法的集成来降低自然语言推理中的偏见,这种方法比先前的去偏见努力表现更好,并且在推广到 12 个其他数据集时表现良好。
Apr, 2020
本文探讨了深度学习模型在自然语言推理方面存在数据偏见的现象,并提出了数据级和模型级去偏见的方法,实验表明采用正交性方法可以更好地去偏见且保持高准确率。
May, 2020
本文提出了两种学习策略来训练神经模型,更加稳健,并且更能够迁移到域外的数据集。这些策略利用了数据集的偏差,通过 down-weighting 有偏差的例子,使基础模型减少对偏差的依赖。实验表明,我们的去偏差方法在所有设置中都显著提高了模型的稳健性,并且更好地迁移到其他文本蕴涵数据集上。
Sep, 2019
本文提出了一种利用语言模型生成词汇变体、对抗性过滤和人工验证相结合的方法扩展现有的 Bias Benchmark for NLI (BBNLI) 测评数据集为 BBNLI-next,并介绍了能够区分模型误差类型的倾向度(bias)测量标准,说明了现有偏见分数存在的不足并提出了考虑到促进 / 反对刻板印象倾向和模型脆弱性的倾向度测量标准。
May, 2023
本文提出了一种自我去偏方法,以减少 NLU 模型在不事先知道偏差情况下利用偏差的趋势,并表明此方法不仅具有一般性和互补性,而且还能提高模型的整体鲁棒性。
Sep, 2020
本篇研究提出了一种生成去偏差数据集的方法,通过过滤掉对任务并无帮助的数据以提高自然语言处理模型的泛化能力,并在实验中证实了该方法可以显著提高模型在不同任务分布下的性能表现。
Mar, 2022
本文提出一种利用简单变换将外部知识纳入注意机制来使 NLI 模型更加稳健的方法,将其应用于 Transformer 编码器和可分解模型中,结果表明该方法可以显著提高它们的稳健性。并且,在与 BERT 预训练相结合时,在对抗 SNLI 数据集上实现了人类水平的性能。
Aug, 2019
该文探究自然语言推理训练模型中的偏见问题,提取假设中的短语作为人工模式,展示它们对于特定标签的强烈指示作用,并探索缓解假设 - 唯一偏见的多种方法,包括下采样和对抗训练等。
Mar, 2020