数据和模型中的顽固词汇偏见
本观点文章指出,解决数据集平衡问题的常见方法已经不足以避免深度学习模型对小规模数据和特定标签的依赖和过拟合问题。我们提出了多种替代方法,包括增强数据集上下文语境,使用少量样本训练模型,通过与用户交互的方式进行模型推理等。
Apr, 2022
本文研究深度神经网络中数据集偏差对任务的影响。通过具体分析特征和标签之间的虚假相关性的来源,本文提出了一种训练策略,即通过量化偏置的程度来调整偏置示例的权重,以减少模型过度依赖数据集偏差的情况,并在 QM 和 NLI 任务上得到了表现的提高。
May, 2022
本文探究了大型语言模型在数据选择偏见下如何学习原本条件独立的变量之间的统计依赖关系。为了验证这个效果,我们创建了一个遮掩性别任务,可以应用于 BERT 系列模型来揭示预测性别代词与一系列似乎与性别无关的变量(如日期和位置)之间的虚假相关性,我们展示了预训练(未经修改的)BERT 和 RoBERTa 大型模型的效果,最后,我们提供了一项在线演示,邀请读者进一步实验。
Jul, 2022
本文区分了 NLP 中的 “虚假相关” 中的两种情况(特征对标签的影响是否取决于上下文),并使用因果模型和必要性和充分性概率对其进行了更细致的处理,说明了现有去偏差方法的结果,并揭示了去偏差后模型表示中虚假特征的编码。
Oct, 2022
本研究提出了一种方法,利用解释性方法从文本中提取影响模型决策过程的标记,分析模型在多个语料库上的预测并进一步通过知识感知扰动来区分 ' 真正 ' 的标记和 ' 虚假 ' 标记,有效地识别出一组 ' 捷径 ',从而实现在多个应用中的更加鲁棒的模型。
Oct, 2021
本文针对自然语言理解领域模型的数据集偏见问题,提出了一种基于特征空间视角的微调方法,使用随机傅里叶特征和加权重采样来解耦特征之间的依赖,并设计了基于互信息的方法来净化这些特征,实验表明该方法优于其他对比方法。
Feb, 2022
本文探讨了深度学习模型在自然语言推理方面存在数据偏见的现象,并提出了数据级和模型级去偏见的方法,实验表明采用正交性方法可以更好地去偏见且保持高准确率。
May, 2020
该论文分析了 Gardner 等人提出的语言的组合性质意味着标签和各自的‘输入特征’之间的所有相关性都是虚假相关性这一提议,在简单的 PCFG 中演示出三种明显的条件可以导致特征 - 标签相关性的产生,论文指出在所有但极少数情况下,输入特征将与标签各自相关,因此需应用领域知识识别可能对鲁棒性构成真正威胁的虚假相关。
Apr, 2022
我们使用语言模型为每个文本标记概念并测量模型在测试数据上的概念偏差,然后提出一种数据再平衡方法来减轻由于训练数据中的不平衡标签分布而引起的虚假相关性,并证明我们的缓解方法在处理文本分类数据集中的标签分布偏差时具有优越性。
Nov, 2023
本篇研究提出了一种生成去偏差数据集的方法,通过过滤掉对任务并无帮助的数据以提高自然语言处理模型的泛化能力,并在实验中证实了该方法可以显著提高模型在不同任务分布下的性能表现。
Mar, 2022