提出了一种基于序列到序列编码器 - 解码器模型并配备深层递归生成解码器的抽象文本摘要框架,通过利用循环潜在随机模型来学习目标摘要中隐含的潜在结构信息以提高摘要质量;同时应用神经变分推断来解决循环潜在变量的不可解后验推断问题,在生成潜在变量和判别性确定状态的基础上生成抽象摘要,实验结果表明,该方法优于现有最先进的方法。
Aug, 2017
提出使用上下文相关网络和预训练的语言模型来提高抽象文本摘要的生成水平和使用新颖度度量来优化生成的摘要,从而实现比现有方法更高水平的摘要生成。
Aug, 2018
本文提出两个方法以弥补 Transformer-based summarization 模型在内容选择方面表现不佳和训练策略效率不高的缺陷,使得模型可以更好的理解要点,同时引入课程学习的方法提高了训练速度和质量,并用 Reddit TIFU 数据集和其他三个跨领域总结测量我们的模型的有效性,同时进行了人类评估表明所提出的方法在流畅性、信息量和整体质量等质量标准上具有良好的效果。
Feb, 2023
提出了一种基于编码器 - 解码器和 RNN 的自注意力神经网络模型,通过组合监督和强化学习来训练和生成连贯性和可读性更强的长文摘要,与目前最先进模型相比,在 CNN / Daily Mail 数据集上取得了 41.16 的 ROUGE-1 得分,并且人工评估表明我们的模型产生了更高质量的摘要。
May, 2017
本篇论文中,采用了 GRU-based encoder 和 Bahdanau attention mechanism 对英语文本进行了自动摘要,使用 News-summary 数据集进行训练,其输出表现优异,可以用作报纸头条。
本论文提出一种结构化卷积解码器,通过内容结构引导,将多句文本生成分解为多个子任务,通过在不同领域的数据集上进行比较,证明该模型在内容覆盖方面取得了更好的表现,并通过自动和人工评估进行验证。
Jun, 2019
本文探讨了在乌尔都语的抽象性摘要生成中,使用编码器 / 解码器方法。我们利用一种基于变压器的模型来编码输入文本并生成摘要,实验表明我们的模型可以生成语法正确、意义明确的摘要,并在公开数据集上取得了最先进的 ROUGE 得分结果。我们还对模型输出进行了定性分析,评估其有效性和局限性,发现编码器 / 解码器方法在乌尔都语的抽象性摘要生成中是一种有前途的方法,并且可以通过适当的修改扩展到其他语言。
May, 2023
本文提出了一种基于高斯混合模型的新颖非监督式抽象摘要方法。实验结果表明,该方法生成的主题句适合作为观点文本摘要,并且更具信息量和覆盖面。
Jun, 2021
本文提出了一种新颖的基于 Transformer 编码器 - 解码器结构的体系结构,通过将实体级知识与来自 Wikidata 的结构全球知识结合,改善了摘要不够准确和连贯的问题,实验证明该模型对长文本摘要具有较好的 ROUGE 分数的提高效果。
Jun, 2020
该研究提出了一种新的基于 Transformer 的 Co-opNet 框架,旨在消除抽象摘要生成中存在的一些问题,如虚构信息,连贯性问题,流故事性等,并通过实验证明,其与竞争基线相比,具有显著的全局连贯性。
Jul, 2019