May, 2019

多文档摘要的分层Transformer

TL;DR本文提出了一种神经网络归纳模型,能够有效地处理多个输入文档,并利用Transformers架构对文档进行层次编码,通过注意力机制来表示跨文档之间的关系,并学习文本单元之间的潜在依赖关系,在Wikisum数据集上的实验证明,所提出的架构比数个强基线模型都有明显的改进。