Jan, 2019

利用树注意力改进 Tree-LSTM

TL;DR通过在 Tree-LSTM 单元中引入可分解注意力的变体,我们设计了一种广义的注意力框架,适用于依赖树和组成树结构,并在语义相关性任务中评估了模型,与不使用注意力的 Tree-LSTM 方法以及其他神经和非神经方法相比表现显著。