神经模型中的语义 - 句法推理
本文介绍了一种基于图的神经网络模型,能更有效地整合语义和语法信息,用于事件事实性预测任务。实验证明该模型在事件事实性预测任务中具有优势。
Jul, 2019
本文提出了一种新的语法任务集,专注于矛盾检测,并评估了递归模型和 BERT 网络。虽然 BERT 在大多数逻辑形式上具有更好的泛化效果,但在处理计数算子时仍有待改进,同时表明该语法任务可以在不同的语言中实现并实现跨语言传递学习。
May, 2019
本文提出一个过程,用于研究神经机器翻译 (NMT) 系统生成的句子表示如何编码不同的语义现象,最终发现编码器最适合在语法 - 语义界面上支持推理,而不是需要世界知识的指代消解。
Apr, 2018
我们提出了两个神经模型用于事件事实预测, 在 FactBank、UW 和 MEANTIME 三个事件事实数据集上相较于之前的模型都有明显的性能提升。我们还大幅扩展了通用分解语义数据集的 It Happened 部分,从而得到了目前最大的事件事实数据集,并在此扩展的数据集上报告了模型结果。
Apr, 2018
本文探讨了如何评估语义特征对语言模型预测的因果效应以及如何利用因果分析方法构建比较模型来评估 NLI 任务,强调因为可解释性和模型评估的需要,对于具有足够结构化和规律性的推理模式进行系统分析是非常有价值的
May, 2023
通过使用语义片段,作者发现目前自然语言理解领域最先进的模型在布尔协调、量化、条件、比较和单调性推理等方面表现不佳,在这些问题上进行微调,BERT-based 模型可以掌握所有逻辑和单调性片段,同时保持其在已有 NLI 基准测试的性能。
Sep, 2019
本研究通过四种方法评估自然语言推理 (NLI) 模型是否可以学习词汇蕴涵和否定之间的组合交互作用,并提出了一个新的自然数据集 MoNLI,其中集中了词汇蕴涵和否定的相关内容,通过对 MoNLI 的 Fine-tuning 得到的模型相较于通用 NLI 数据集拥有更好的效果,同时对当前表现最佳的 BERT 模型进行探究表明其至少部分嵌入了词汇蕴涵和否定的算法级别理论。
Apr, 2020
本文旨在研究表明了深度学习在自然语言处理方面的取得的成功,然而,对于它们能否展示出人类一样具有自然语言理解的概括能力的范围还不清楚。我们在自然语言推理领域探讨了这个问题,侧重于推理关系的可传递性,这是一种系统地进行推理的基本属性。结果表明,目前的自然语言推理模型无法很好地完成传递性推理任务,这表明它们缺少从提供的训练示例中综合推理的概括能力。
Jan, 2021