本文提出了一种新的长度可控的抽象汇总模型,与以往仅根据编码器 - 解码器模型生成一篇总结不同,我们的模型在编码器 - 解码器模型中结合了单词级别的抽取模块,通过提取重要的词来控制长度,生成了一个同时具有信息和长度控制的汇总。
Jan, 2020
该研究提出了一种基于 Transformer 的架构,能够生成以特定主题为焦点的摘要,并通过修改 Transformer 的交叉注意机制实现主题焦点控制,从而在 NEWTS 数据集上取得了新的最佳表现,并且能够通过微调将该机制应用于不同的 Transformer 模型,提高了 CNN/Dailymail 和 XSum 基准数据集上的抽象概括性能。同时,通过人工评估证明,该模型生成的摘要更加准确,胜过了最先进的 Frost 模型。
Nov, 2023
提出使用上下文相关网络和预训练的语言模型来提高抽象文本摘要的生成水平和使用新颖度度量来优化生成的摘要,从而实现比现有方法更高水平的摘要生成。
Aug, 2018
CTRLsum 是一种用于可控摘要的新型框架,它能够使用户通过文本输入关键词或描述性提示来控制生成摘要的多个方面,在不需要额外人工注释或预定义训练期间的控制方面的情况下,在三个领域的摘要数据集和五种控制方面中得到量化证明,并在 CNN/DailyMail 数据集上取得了最先进的结果。
Dec, 2020
本篇研究发展了一个名为 ESCA 的模型,该模型通过开创性的选择 - 生成框架实现了文档摘要,能够以更好的性能应用于 CNN/Daily Mail 和 NYT50 等基准数据集。
Apr, 2020
本文介绍了一种自我训练的方法,使用控制代码通过 Transformer 架构将多条评论进行无监督抽象摘要,并通过人工评估表明,该方法生成的摘要具有更高的质量和相关性。
本论文提出一种快速、精准的摘要生成模型,该模型首先选择重要句子,然后使用新颖的基于句子级的策略梯度方法实现两个神经网络之间的其它计算,最后生成简洁的总体摘要。该模型在 CNN/Daily Mail 数据集上的表现达到了最新的最佳水平,并且具有更高的抽象性得分,同时也展示出相较于之前的长段落编码 - 解码模型,更快的推断速度和训练收敛速度优势,而且在 DUC-2002 数据集上表现更优。
May, 2018
本文针对抽象对话摘要的质量和粒度控制问题,提出了一种包含两个主要组成部分和阶段的模型,实现了基于伪标注疑问代词类别和基于组成句法分析提取关键词短语生成初步摘要,并通过自动确定或控制源文本中不同文本片段预测和突出显示给定对话的生成摘要句子数量。在最大的对话摘要语料库 SAMSum 上表现出优越性能,达到了 50.79 的 ROUGE-L 评分,并展示了竞争性高的人类评估结果和可控制的效果。
May, 2021
通过学习自单一人类摘要信息,我们提出了一种神经网络摘要模型,该模型可以生成从纯粹提取式到高度生成式的多种摘要假设,并在控制文本复制的同时实现训练和解码阶段内的控制,从而实现了竞争性的结果。
Nov, 2019
本研究介绍并应用了一种神经主题模型以及归一化流以捕捉文档的全局语义,并将其整合到摘要模型中,以解决 Transformer-based 模型在摘要生成中存在的短程依赖问题,同时在五个常用文本摘要数据集上表现优于现有方法。
Sep, 2021