May, 2016

使用双向 LSTM 模型和内在注意力学习自然语言推理

TL;DR该论文提出了一种基于句子编码技术的模型,通过使用双向 LSTM 进行单词级别的平均池化生成第一阶段的句子表示,并采用注意力机制替代平均池化,以更好地表示文本蕴含关系。最终,通过对斯坦福自然语言推理语料库的实验验证了该模型具有较少的参数以及比现有最佳的句子编码方法更高的性能。