神经模型学习自然语言中单调推理的系统性吗?
本文介绍了 Monotonicity Entailment Dataset (MED),并研究了最先进的 NLI 模型在该测试集上的表现。结果表明,这些模型的表现相当差,特别是在向下推理方面,并且数据增强方法显示这些模型的向上和向下推理的泛化能力受到限制。
Jun, 2019
本研究通过四种方法评估自然语言推理 (NLI) 模型是否可以学习词汇蕴涵和否定之间的组合交互作用,并提出了一个新的自然数据集 MoNLI,其中集中了词汇蕴涵和否定的相关内容,通过对 MoNLI 的 Fine-tuning 得到的模型相较于通用 NLI 数据集拥有更好的效果,同时对当前表现最佳的 BERT 模型进行探究表明其至少部分嵌入了词汇蕴涵和否定的算法级别理论。
Apr, 2020
本文探讨了神经机器翻译在自然语言处理中的组合性能力测试及其对真实数据的影响,结果显示需要重新思考神经网络的组合性评估及开发相应基准测试。
Aug, 2021
本文介绍了 HELP 数据集,并将其添加到现有数据集中,用于训练最新神经模型,并评估它们在具有逻辑推理的 test sets 上的性能,在实验中,数据集有助于改善神经模型的整体准确性,特别是对于需要词汇替换的推理而言效果最佳。
Apr, 2019
本文探讨语言模型的语义知识,特别关注其是否基于语义单调性属性创建了语言环境类别,并且是否这些类别在语言模型中扮演类似于人类语言理解的作用,以否定极性项许可为案例研究。通过一系列试验,包括探针式诊断分类器、语言可接受性任务,以及一种新型的分类器排名方法,我们能够更深入地了解到这些模型所获得的语义概括。
May, 2021
本研究基于多种语言和哲学理论对构成性的不同解释,提出了五个理论有据的测试方法,用于评估神经语言模型的构成性能力,结果分析了三种常见神经网络结构在高度构成性数据集上的表现和潜在改进方向。
Aug, 2019
该研究回顾了当前深度学习语言处理网络的主要创新,讨论了一系列研究表明深度网络能够进行微妙的语法依赖性泛化,但也不依赖于系统化的组合规则,这一现象应该引起语言学家和认知科学家的兴趣。
Mar, 2019