Nov, 2023

可控主题聚焦抽象摘要

TL;DR该研究提出了一种基于 Transformer 的架构,能够生成以特定主题为焦点的摘要,并通过修改 Transformer 的交叉注意机制实现主题焦点控制,从而在 NEWTS 数据集上取得了新的最佳表现,并且能够通过微调将该机制应用于不同的 Transformer 模型,提高了 CNN/Dailymail 和 XSum 基准数据集上的抽象概括性能。同时,通过人工评估证明,该模型生成的摘要更加准确,胜过了最先进的 Frost 模型。