GoSum:基于强化学习和有机化图论的长文本摘要
本论文介绍了一种基于强化学习并且能够逐步提取文本摘要的 MemSum 摘要器,它在每一步都可以使用包括文本内容、全局文本上下文和提取历史在内的信息集合来决定摘要中摘录哪些句子;经对 PubMed、arXiv 和 GovReport 等长文档进行测试,该轻量架构模型的 ROUGE 性能处于领先水平;消融研究证明了局部、全局和历史信息的重要性;人类评估也印证了 MemSum 生成的摘要质量高且冗余度低。
Jul, 2021
本文提出了一种基于无监督的基于图的排名模型,用于提取科学文献的摘要。我们的方法假定源文档采用两级分层图表示,并利用不对称的位置提示来确定句子的重要性。在 PubMed 和 arXiv 数据集上的结果表明,我们的方法在自动指标和人工评价方面优于强无监督基线。此外,其性能与许多基于监督学习的方法相当。这些结果表明,篇章结构中的模式是确定科学文章重要性的强有力信号。
May, 2020
本文探讨了利用 Transformer-based 系统概括多领域科学研究论文的问题,并设计了两种不同类型的概述手段,即 LaySumm 和 LongSumm,使用 ROUGE 指标有效评估了本文系统的优越性。
Jan, 2021
本文研究了使用引文图来提高科学论文摘要生成的质量,提出了两种方法:为任务提供简单而低成本的多粒度无监督摘要生成方法 (MUS),以及对大量标记数据具有更准确结果的基于图的监督摘要方法 (GSS),并在公共基准数据集上进行了实验验证以证明方法的有效性。
Dec, 2022
本文提出了一种名为 SgSum 的新型 EMDS 框架,将 MDS 任务作为一个子图选择问题,通过构建关系图来选择一个显著的子图,而不是单独评分和提取句子,从而解决了现有方法中忽略句子关系和整个摘要连贯性和凝练性的问题。与传统方法相比,SgSum 模型能够由于模型对句子关系的建模和直接输出更加丰富和连贯的子图形式摘要而获得显著优势,且在 MultiNews 和 DUC 数据集上进行的实验表明,我们的方法比多个强基线模型都有显著改进。
Oct, 2021
提出了一种用于单文档大意提取的全新算法,能够通过强化学习目标全局优化 ROUGE 评估指标,并在 CNN 和 DailyMail 数据集上进行了实验,展示它在人工和自动评估中均优于现有抽取和生成式提取系统的神经大意提取模型。
Feb, 2018
本研究基于多任务学习方法,利用文件的层次结构生成长篇文献的扩展摘要,并在三个大型数据集上验证其优于其他强基准模型的性能,为长篇文献摘要生成任务的未来研究提供了深入的洞见。
Dec, 2020
提出了一种新的神经模型用于文本摘要,首先从文档中提取句子然后再压缩它们,达到了抽象方法所暴露出的难度和提取方法所缺乏的简洁性的平衡,且所提模型在 CNN/DailyMail 和 Newsroom 数据集上均取得了最先进的效果。
Apr, 2019
该论文提出了一种基于个性化概念的分层式摘要方法 Summation,使用强化学习算法生成特定主题的未见文档的个性化摘要,以增强理解、有效导航和满足用户独特需求从大量文献中提取有意义的见解。
Jul, 2023
本文提出了一个通用可扩展的引导式摘要框架(GSum),可以有效地将不同种类的外部引导作为输入,通过实验表明了该模型在使用突出显示的句子作为引导时,在 4 个流行的摘要数据集上实现了 ROUGE 的最优性能,同时我们还展示了我们的引导模型可以生成更忠实的摘要,并展示了不同类型的引导所生成的不同摘要,为学习模型提供了一定程度的可控性。
Oct, 2020