该研究提出了一种基于神经网络的自然语言推理模型,使用表示学习、LSTM、注意力机制和可组成的神经网络来实现任务,并在 Stanford 自然语言推理数据集上实现了比文献中所有已发布模型更好的准确性。
Nov, 2016
本研究设计了基于 LSTM 的连锁推理模型,进一步考虑局部推理建模和推理组合的递归架构,包括句法分析信息在内,以实现更高准确性的神经网络推理模型。
Sep, 2016
本文提出了一种基于循环神经网络和长短时记忆单元的句子嵌入模型,该模型能够自动侦测句子中关键词和主题,从而进行网络文档检索等艰难的语言处理任务,并在性能上显著优于现有的先进方法。
Feb, 2015
论文提出了一种新的深度学习架构,用于解决自然语言推理任务,采用依赖阅读的双向 LSTM 网络(DR-BiLSTM)来模拟前提和假设之间的关系。采用复杂的集成策略将多个模型组合起来,进一步提高了结果。研究表明 DR-BiLSTM 在 Stanford NLI 数据集上获得了最佳单模型和集成模型效果,取得了新的最优成绩。
Feb, 2018
本文提出一种基于对偶句子级别的监督对比学习(PairSCL)方法,采用交叉注意力机制学习句子对的联合表示,并使用对比学习目标来区分不同类别的句子对,在两个公共 NLI 数据集上,PairSCL 的准确性平均优于其他方法 2.1%,并在文本分类的七个转移任务上超过了先前的最新方法。
Jan, 2022
该论文提出了一种基于句子编码技术的模型,通过使用双向 LSTM 进行单词级别的平均池化生成第一阶段的句子表示,并采用注意力机制替代平均池化,以更好地表示文本蕴含关系。最终,通过对斯坦福自然语言推理语料库的实验验证了该模型具有较少的参数以及比现有最佳的句子编码方法更高的性能。
May, 2016
本研究提出了一种双向长短时记忆网络(BiLSTM)和最大池化层的分层策略,为各种自然语言处理任务提供高效的分层表征,并在多项评估任务中超越 InferSent 和 SkipThought,特别是在评估句子表征中语言特性捕捉的能力方面,优于 InferSent 模型。
Aug, 2018
本文提出一种使用简单 LSTM 架构的零样本句子对标记来生成自然语言推理的 token 级解释的方法,并使用 SNLI 数据集进行了实验,与黑盒方法相比,白盒方法的匹配精度较低。
Apr, 2019
该论文提出了一项新的任务,即通过一个源句子生成一个蕴含的句子,使用带有关注力的 LSTM 模型对斯坦福自然语言推理语料库的蕴含对进行训练,在手动注释的测试集上,82% 的生成句子是正确的,还使用递归方法生成自然语言推理链,从而自动构造了一个蕴含图。
Jun, 2016
本研究探讨了 NLI 模型的直接零 - shot 应用,包括分析其对更长和越界输入的鲁棒性,开发新的聚合方法以操作完整文档,并在 ContractNLI 数据集上达到最先进的表现,并发现 NLI 分数提供强大的检索信号,并且比常见的相似性基于的方法提供更具相关性的证据提取。同时通过研究文档集群来鉴别不同来源之间的差异和共识,研究发现相同主题的维基百科页面在不同语言中存在实际不一致。
Apr, 2022