AAAIFeb, 2020

基于句法先导的注意力网络用于句子压缩

TL;DR本文提出了一种基于 SLAHAN 的序列到序列 (Seq2Seq) 模型,在解码过程中明确跟踪依赖父 / 子词以及捕捉将来将被解码的重要词汇,进而解决了在压缩句子过程中生成不合语法的问题,同时在 Google 数据集上取得了最佳的保留标记 F1、ROUGE-1、ROUGE-2 和 ROUGE-L 分数,同时高效提高了摘要生成性能。