增强型 LSTM 用于自然语言推断
该研究提出了一种基于神经网络的自然语言推理模型,使用表示学习、LSTM、注意力机制和可组成的神经网络来实现任务,并在 Stanford 自然语言推理数据集上实现了比文献中所有已发布模型更好的准确性。
Nov, 2016
本文使用 LSTM 结构,将 match-LSTM 方法引入进行单词级联匹配以预测自然语言推理中的矛盾或中性关系标签,并在 Stanford 自然语言推理数据集上表现出比其他深度神经网络方法更高的 86.1% 的准确率。
Dec, 2015
该论文提出了一项新的任务,即通过一个源句子生成一个蕴含的句子,使用带有关注力的 LSTM 模型对斯坦福自然语言推理语料库的蕴含对进行训练,在手动注释的测试集上,82% 的生成句子是正确的,还使用递归方法生成自然语言推理链,从而自动构造了一个蕴含图。
Jun, 2016
本文分析了几种神经网络设计(及其变体),对八个数据集进行了广泛的比较,包括释义识别、语义文本相似性、自然语言推断和问题回答等任务。我们提供了一个系统的研究,表明编码上下文信息的 LSTM 和句间交互至关重要,而 Tree-LSTM 并不能像先前宣传的那样有所帮助,但却出人意料地提高了 Twitter 数据集的性能;增强顺序推理模型是迄今为止较大数据集的最佳选择,而基于词对交互的模型在较少数据可用时实现最佳性能。我们将我们的实现作为开源工具包发布。
Jun, 2018
论文提出了一种新的深度学习架构,用于解决自然语言推理任务,采用依赖阅读的双向 LSTM 网络(DR-BiLSTM)来模拟前提和假设之间的关系。采用复杂的集成策略将多个模型组合起来,进一步提高了结果。研究表明 DR-BiLSTM 在 Stanford NLI 数据集上获得了最佳单模型和集成模型效果,取得了新的最优成绩。
Feb, 2018
本文研究在于如何用外部的知识来丰富神经网络的自然语言推理模型,并展示了这些模型如何在 SNLI 和 MultiNLI 数据集上实现最先进的性能水平。
Nov, 2017
该论文提出了一种基于句子编码技术的模型,通过使用双向 LSTM 进行单词级别的平均池化生成第一阶段的句子表示,并采用注意力机制替代平均池化,以更好地表示文本蕴含关系。最终,通过对斯坦福自然语言推理语料库的实验验证了该模型具有较少的参数以及比现有最佳的句子编码方法更高的性能。
May, 2016
本研究提出了一种双向长短时记忆网络(BiLSTM)和最大池化层的分层策略,为各种自然语言处理任务提供高效的分层表征,并在多项评估任务中超越 InferSent 和 SkipThought,特别是在评估句子表征中语言特性捕捉的能力方面,优于 InferSent 模型。
Aug, 2018
本文对大型语言模型在逻辑推理方面进行了全面评估,提出了一种基于选择和推理的框架,可以在不进行微调的情况下改进性能,并伴随着因果自然语言推理过程的答案。
May, 2022