本文提出了一种新的语法任务集,专注于矛盾检测,并评估了递归模型和 BERT 网络。虽然 BERT 在大多数逻辑形式上具有更好的泛化效果,但在处理计数算子时仍有待改进,同时表明该语法任务可以在不同的语言中实现并实现跨语言传递学习。
May, 2019
本研究分析了 SNLI 和 MultiNLI 数据集中逻辑关系的数据偏差程度及其影响,并提出一种简单的方法来降低数据集中的数据偏差。我们发现仅对 SNLI 数据集中的假设进行分类,就能产生 64% 的准确率。
Jun, 2019
本文提出了 XNLI 数据集用于跨语言句子理解的评估,并研究了多语言句子理解的基准和挑战。
Sep, 2018
通过引入 Stanford 自然语言推理语料库,我们成功解决了机器学习研究在自然语言推理方面的巨大缺乏,该语料库是由人类按照基于图像字幕的新颖本体任务撰写的标记句子对,包含 570k 个句子对,是同类资源的两个量级以上,在规模方面取得了重大进展,这使得词汇分类器优于一些复杂的现有蕴含模型,并且让一种基于神经网络的模型在自然语言推理基准测试中首次表现亮眼。
Aug, 2015
我们提出了一种 NLP 技术,利用通用翻译数据集和知识蒸馏技术,通过两个预训练模型在源语言和目标语言上的表现实现了目标语言的句子关系推理,该技术在多个任务上展现了普适性。
Sep, 2023
通过扩展自然语言推理数据集并引入人工提供的自然语言解释,我们实现了能够学习人类提供解释的机器学习模型,并将其用于提高模型性能和确定其可靠性的研究。
Dec, 2018
本篇研究通过重新翻译 14 种不同语言的 MNLI 数据集,包括 XNLI 测试和开发集,以改进原始 XNLI 数据集,并通过在 15 种不同语言中训练模型并分析其在自然语言推断任务上的表现来实现跨语言理解和自然语言处理,同时通过在英语以外的语言中训练模型来探索在资源匮乏的语言(如斯瓦希里和乌尔都语)中提高性能的可能性。
Jan, 2023
该论文定义了一项新的文本蕴含任务,要求对多个前提句子进行推断,提出了一个新的数据集来最小化平凡的词汇推理,强调对日常事件的知识,并为文本蕴含提出了一个更具挑战性的环境;同时评估了多种强力神经网络基线,并分析多个前提任务与标准文本含义的区别。
Oct, 2017
本文提出了第一个用于混合语言自然语言推理的数据集,其中使用来自印地语电影和双语人士的双语代码混合作为前提和假设,并使用标准的 mBERT 算法对数据集进行了评估。
Apr, 2020
该论文提出了一项新的任务,即通过一个源句子生成一个蕴含的句子,使用带有关注力的 LSTM 模型对斯坦福自然语言推理语料库的蕴含对进行训练,在手动注释的测试集上,82% 的生成句子是正确的,还使用递归方法生成自然语言推理链,从而自动构造了一个蕴含图。
Jun, 2016