TL;DR该研究提出了一种基于关联记忆的新架构用于双序列建模,派生了用于增强通用循环神经网络(RNN)的循环关联记忆(AM-RNNs),扩展至同时操作两个 AM 的 Dual AM-RNN,并在文本推理方面取得了非常有竞争力的结果。
Abstract
Many important nlp problems can be posed as dual-sequence or
sequence-to-sequence modeling tasks. Recent advances in building end-to-end
neural architectures have been highly successful in solving such tasks. In
本文提出了名为神经关联模型(NAM)的新深度学习方法,旨在用于人工智能中的概率推理。作者研究了两种 NAM 结构,即深度神经网络(DNN)和关系调制神经网络(RMNN),并在多个概率推理任务中证明了它们的有效性,包括识别文本蕴含,多关系知识库中的三元分类和常识推理。实验结果表明,这些模型可以显著优于传统的方法,并证明了它们在解决具有挑战性的 Winograd 模式(WS)问题方面的潜力。