提出使用上下文相关网络和预训练的语言模型来提高抽象文本摘要的生成水平和使用新颖度度量来优化生成的摘要,从而实现比现有方法更高水平的摘要生成。
Aug, 2018
本文提出了一种神经摘要模型,能够通过简单而有效的机制实现用户对文本长度、风格、感兴趣的实体等高级属性的控制,以生成符合用户需求的高质量摘要,并在 CNN-Dailymail 数据集上优于现有的自动化系统和人工评价。
Nov, 2017
本文提出了一种新的长度可控的抽象汇总模型,与以往仅根据编码器 - 解码器模型生成一篇总结不同,我们的模型在编码器 - 解码器模型中结合了单词级别的抽取模块,通过提取重要的词来控制长度,生成了一个同时具有信息和长度控制的汇总。
Jan, 2020
本文提出了一种摘要框架,通过将目标的所有评论压缩为多个密集向量以代替传统的前置筛选步骤,从而最大化地保留所有信息,进而生成更具信息量的摘要,并且采用零样本技术,能够有效地生成根据用户需求定制的摘要,实验结果表明了该模型在 Rotten Tomatoes 数据集上的优越性能。
Sep, 2019
本文采用神经抽象总结的方法来产生长文档的抽象总结,该方法使用一个简单的抽取步骤来生成一个摘要,然后将其用作相关信息的转换器语言模型的条件,然后生成一个摘要。我们展示了这个抽取步骤显著地改善了总结结果,而且这种方法产生的抽象总结比以前采用复制机制的工作能够实现更高的浸润得分。
使用 SummaFusion 作为第二阶段抽象化摘要的方法,可以融合多个摘要候选人,达到更好的摘要效果。
Oct, 2022
本文研究使用 Transformer 技术来提高自动文本摘要的效率,提出基于检索的方法,可以降低处理整个文档的成本。实验结果表明,相较于基线,该方法的存储占用更少,且保证了文本摘要的可靠性。
Dec, 2022
通过学习自单一人类摘要信息,我们提出了一种神经网络摘要模型,该模型可以生成从纯粹提取式到高度生成式的多种摘要假设,并在控制文本复制的同时实现训练和解码阶段内的控制,从而实现了竞争性的结果。
Nov, 2019
本文探讨了利用 Transformer-based 系统概括多领域科学研究论文的问题,并设计了两种不同类型的概述手段,即 LaySumm 和 LongSumm,使用 ROUGE 指标有效评估了本文系统的优越性。
Jan, 2021
提出了一种新的无监督抽象摘要方法,利用覆盖率和流畅性最大化的组合来进行句子长度控制,通过遮盖原始文档中关键词并将其填充进生成的摘要中来激励包含原始文档中的关键词,利用覆盖率模型和流畅性模型进行无监督训练,可以在流行的新闻摘要数据集上优于以前的无监督方法,同时接近有竞争力的监督方法。我们的模型比以前的工作得到更高程度的信息提取,复制的段落大约是先前的两倍短,并且可以自主学习压缩和合并句子。
May, 2021