BriefGPT.xyz
May, 2019
多文档摘要的分层Transformer
Hierarchical Transformers for Multi-Document Summarization
HTML
PDF
Yang Liu, Mirella Lapata
TL;DR
本文提出了一种神经网络归纳模型,能够有效地处理多个输入文档,并利用Transformers架构对文档进行层次编码,通过注意力机制来表示跨文档之间的关系,并学习文本单元之间的潜在依赖关系,在Wikisum数据集上的实验证明,所提出的架构比数个强基线模型都有明显的改进。
Abstract
In this paper, we develop a
neural summarization model
which can effectively process multiple input documents and distill
transformer architecture
with the ability to encode documents in a hierarchical manner. We
→