用于改进情感分析的结构化注意力神经网络
本研究提出了一种基于双向长短期记忆的新型两层注意网络,利用 WordNet 生成知识图嵌入来提高情感分析的预测能力,将其与基于支持向量回归和多层感知机网络的监督模型相结合,实验结果表明该模型在 SemEval 2017 上表现优于顶尖系统,分别将 Sub-tracks 1 和 2 的准确率提高了 1.7 和 3.7 个百分点。
May, 2018
通过在 Tree-LSTM 单元中引入可分解注意力的变体,我们设计了一种广义的注意力框架,适用于依赖树和组成树结构,并在语义相关性任务中评估了模型,与不使用注意力的 Tree-LSTM 方法以及其他神经和非神经方法相比表现显著。
Jan, 2019
本篇论文提出了一种基于结构嵌入的句法树算法框架 (SEST),利用句法树结构信息编码为向量表示,以增强机器阅读理解算法的性能。实验结果表明,该模型能够准确地识别句子的句法边界,并比基线算法更准确地提取句法连贯的答案。
Mar, 2017
本文研究了如何将更丰富的结构分布用于深度神经网络中的嵌入式分类推理,通过两种不同的结构注意力网络:线性链条件随机场和基于图形的解析模型的实验,展示了这些结构的注意力网络超过了基线的注意力模型在各种合成和真实任务中的表现。
Feb, 2017
本文介绍了一种关注编码器,结合了树状递归神经网络和序列循环神经网络,用于对模拟句子对。我们的关注编码器将 RNN 生成的一个句子的表示用于指导另一个句子的结构编码,评估结果表明,在语义相似度和释义选择方面,我们的编码器优于所有基线,并取得了最佳结果。
Oct, 2016
本文提出将依赖树结构位置表示与传统的序列位置编码相结合,以更好地模拟输入句子的潜在结构,在中文到英文和英文到德语的翻译任务中,分别针对绝对和相对位置编码方式,实验证明提出的方法能够稳定提高自我注意力网络在各种自然语言处理任务上的表现。
Sep, 2019
本文探讨了在自然语言推理的背景下,将注意力机制应用到句法树这种更加丰富的拓扑结构上,不仅可以利用底层的句法信息,还可以使注意力更具可解释性。结果表明,该方法非常有效,并进行了广泛的质量分析,提取出了为什么以及如何工作的见解和直觉。
Jul, 2016
本文提出了一种新的 Attentive Recursive Tree 模型,它可以根据任务动态地定位一个句子中的重要单词,在底向上进行句子嵌入的组成时,AR-Tree 可以内在地强调重要单词。通过一种端到端的加强训练策略,该模型在三个句子理解任务上表现出色。
Nov, 2018
本文提出了一种基于 DRNN 的序列到树的 NMT 模型 (称为 Seq2DRNN),该模型在树结构解码中结合了序列编码器和句法感知机制,并使用语法结构信息从而能够生成更流畅的翻译结果,同时可以进行成分句法分析。
Sep, 2018