本文研究在于如何用外部的知识来丰富神经网络的自然语言推理模型,并展示了这些模型如何在 SNLI 和 MultiNLI 数据集上实现最先进的性能水平。
Nov, 2017
在十个不同的自然语言推理数据集上进行实验后,我们发现使用一种仅基于假设的模型,即使忽略上下文,也可以显著优于大多数 NLI 数据集的大多数基线,分析表明统计异常性可能允许模型在某些数据集中执行 NLI,超出不带上下文访问时本应实现的界限。
May, 2018
本文提出了一个评估方法,即通过自动构建的“压力测试”来测试NLI模型的推理能力,评估了六种句子编码模型在这些测试中的表现,揭示了模型在面对复杂语言现象时的优势和劣势,为以后的研究方向提供了重要的指导意义。
Jun, 2018
本研究介绍了一种新方法,将语法纳入自然语言推理(NLI)模型中。我们使用预训练的依存解析器中的上下文令牌级向量表示来实现此方法,并使用四个强NLI模型(可分解的注意力模型、ESIM、BERT和MT-DNN)进行实验,在三个NLI基准测试中表现出了一致的精度提高。
Sep, 2019
本文在构建议程推理和预设的诊断数据集后,评估了在 MultiNLI 训练的 BERT、InferSent 和 BOW NLI 模型学习进行实用推理的能力。结果表明,尽管MultiNLI中的很少数的偶合类型表示,但BERT可以绘制实用偶合,而BOW和InferSent则表现出较弱的实用推理证据。
Apr, 2020
该研究提出了四种新的众包协议来收集 NLI 数据集,以改善训练样本的质量和多样性,然而实验结果表明这些新方法在迁移学习的任务中没有优势,但它们可以显著降低注释文本中的问题。
通过一个明确的指标,我们提出了多种度量方法,并研究了哪些特定的排列方式使得大型Transformer NLU 模型在自然语言推理任务中对随机词序具有一定程度的规律性。我们对此现象进行了综合实证评估,发现无论是基于Transformer还是基于pre-Transformer RNN / ConvNet结构的编码器,以及跨多种语言(英语和中文)都存在此问题,并提供相关数据和代码。
Dec, 2020
探究利用自然语言解释来监督模型的注意力权重,促使其更集中于解释中的关键词,从而提高模型性能,此方法的实验表明,这种改进可以适用于其它NLI数据集
Apr, 2021
本文提出了一种基于数据生成的基准无监督学习方法来训练自然语言推理模型,该方法可以绕过人工标注训练数据的需求,并且在几个 NLI 数据集上实现了最高 66.75% 的分类准确度,进而得出建议,即收集高质量特定任务数据进行改进。
Oct, 2021
本文论述了预训练语言模型(PLM)的重要性以及知识增强型预训练语言模型(KE-PLMs)的研究现状,探讨了KE-PLMs在各种NLU和NLG应用中的超越性能以及KE-PLMs面临的挑战和未来研究方向。