Aug, 2022

层次化并行变压器与注意力对齐技术用于抽象多文档摘要

TL;DR本研究提出了一种带有 Attention Alignment 机制的 Parallel Hierarchical Transformer(PHT)用于 Multi-Document Summarization(MDS)。 通过将单词级和段落级的 multi-head attention 结构综合起来,PHT 的分层体系结构可以更好地处理令牌和文档级别的依赖关系,从而更好地处理内部和跨文档信息。 基于 WikiSum 数据,对所提出的体系结构进行了全面评估,结果表明,相对于其他基于 Transformer 的基线,我们的分层模型可以以相对较低的计算成本,通过更好的处理 MDS 来生成更高质量的摘要。