使用语法归纳寻找数据集快捷方式
本文研究表明,NLU 模型倾向于依赖于快捷特征进行预测,而不是真正理解语言。我们发现 NLU 训练集中的单词可以被建模为长尾分布,进一步提出了一种量化每个训练样例快捷程度的方法,并基于此提出了一个缓解快捷特征对模型训练的影响的框架 LTGR,实验结果表明这种方法可以提高模型对 OOD 数据的泛化能力,同时保持在分布数据上的准确性。
Mar, 2021
通过使用超出分布数据的方法,我们提出了一种识别快速推理的新方法,该方法不仅可以量化快速推理的严重程度,还不需要假设触发快速推理的令牌类型。我们在自然语言推理和情感分析方面的实验中成功地发现了之前研究中已知和未知的快速推理。
Dec, 2023
本文介绍了一系列实验来深入理解深度神经网络中的快捷学习和其影响。作者设计了一种学习 WCST-ML 的训练过程,证明了在相同的机会下某些提示优先于其他提示,这可以通过 Kolmogorov 复杂度来解释。作者的研究基于 DSprites 和 UTKFace 数据集,强调了消除模型偏见的重要性。
Oct, 2021
大型语言模型在自然语言处理领域取得了重要的性能提升,然而近期的研究发现,这些模型在执行任务时往往使用了捷径,导致性能看起来得到了提升,却缺乏泛化能力。这一现象给大型语言模型的自然语言理解评估带来了挑战。本文对该领域的相关研究进行了简明调查,并提出了对于捷径学习在语言模型评估中的影响的观点,特别是对于 NLU 任务。本文呼吁加大对捷径学习的研究力度,促进更加强大的语言模型的开发,并提高在实际场景中的 NLU 评估标准。
Jan, 2024
本文介绍深度学习中的 shortcut learning 问题,该问题用于在标准基准测试中表现良好的决策规则在更具挑战性的测试条件下失败,作者提出了一些模型解释和基准测试的建议,以改善从实验室到真实世界应用的稳健性和可迁移性。
Apr, 2020
研究发现,QA 模型学习步骤通常倾向于学习 shortcut solutions 而非 QA 数据集所期望的解题方法,而学习 shortcut solutions 的行为扰乱了 QA 模型在 anti-shortcut examples 上的泛化能力。研究人员提出利用 shortcut solutions 的可学习性来设计 QA 训练集,以降低 shortcut solutions 的学习程度,从而提高 QA 模型的准确性。
Nov, 2022
本文提出了一种名为 ShortcutLens 的可视化分析系统,帮助 NLU 专家探索 NLU 基准数据集中的捷径,该系统允许用户进行多层次的捷径探索,包括统计视图、模板视图和实例视图,研究结果表明 ShortcutLens 支持用户更好地了解基准数据集中的捷径问题,激励他们创建具有挑战性和相关性的基准数据集。
Aug, 2022
深度学习模型从数据中提取多种多样的特征,但这些特征的使用不仅取决于其预测能力(即特征如何可靠地指示训练数据标签),还取决于其可提取性(即特征从输入中容易提取或利用的程度)。研究表明,某些模型更喜欢使用某些特定的特征,例如纹理优先于形状,图像背景优先于前景对象。本研究通过构建一个具有预测性和可提取性差异的最小显性生成框架,并量化了模型的 Shortcut Bias(即过度依赖快捷特征而忽视核心特征的程度),从而系统研究了预测性和可提取性如何相互作用来影响模型的特征使用。实证结果表明,线性模型相对没有偏见,但引入具有 ReLU 或 Tanh 单隐藏层的模型则会产生偏见。最后,本研究还研究了在实际使用中,模型是如何在自然数据集中权衡预测性和可提取性,并发现了增加模型 Shortcut Bias 程度的可提取性操作。综上所述,这些发现表明,在深度非线性架构中学习快捷特征的倾向是一个基本特征,值得进行系统研究,因为它影响模型解决任务的方式。
Oct, 2023