ACLSep, 2018

层次循环模型简化的层数越少越简单

TL;DR通过 “越低越简单” 的策略,我们提出了 Scalar Gated Unit 和 Fixed-size Ordinally-Forgetting Encoding 两种方法改进了基于 GRU 的 Hierarchical Recurrent Encoder-Decoder 和 R-NET 模型,显著减少了训练时间和参数数量,且略有性能提升。