BanditSum:基于上下文盲探算法的摘要提取
提出了一种用于单文档大意提取的全新算法,能够通过强化学习目标全局优化 ROUGE 评估指标,并在 CNN 和 DailyMail 数据集上进行了实验,展示它在人工和自动评估中均优于现有抽取和生成式提取系统的神经大意提取模型。
Feb, 2018
本文探讨了在提取式摘要中基于全文进行 contextualized rewriting,将其形式化为 seq2seq 问题,引入 group tag 作为解决方案来建立关联,通过基于内容的寻址方法识别提取式摘要,结果表明我们的方法明显优于非上下文的重写系统,无需采用强化学习,在多个提取式摘要生成器上显示出显着提高的 ROUGE 分数。
Jan, 2021
通过将抽取和生成的方法相结合,利用生成模型提高了抽取式摘要的简洁性和可读性。本研究提出了上下文感知的重写方法,通过 group-tag alignments 将传统的抽取方式转化为生成方式,取得了显著的 ROUGE 分数提升。
Jul, 2022
本论文介绍了一种基于强化学习并且能够逐步提取文本摘要的 MemSum 摘要器,它在每一步都可以使用包括文本内容、全局文本上下文和提取历史在内的信息集合来决定摘要中摘录哪些句子;经对 PubMed、arXiv 和 GovReport 等长文档进行测试,该轻量架构模型的 ROUGE 性能处于领先水平;消融研究证明了局部、全局和历史信息的重要性;人类评估也印证了 MemSum 生成的摘要质量高且冗余度低。
Jul, 2021
本文通过使用句子重写模型,采用先提取常规句子,后对所选句子进行释义来生成摘要的策略,提出了一种通过强化学习直接最大化摘要级别 ROUGE 得分的新型训练信号,并在 CNN / Daily Mail 和纽约时报数据集上展示了新的最先进表现。在整个实验中,我们还演示了它在 DUC-2002 测试集上的普遍适用性。
Sep, 2019
BayeSum 是一种基于贝叶斯模型的用于句子提取的模型,可以利用多个相关文档来增强查询词信息,处理短查询不足问题,并得到了最先进的结果,在信息检索框架中可以被理解为一种验证的查询扩展技术。
Jul, 2009
本文提出了一种基于图谱和强化学习的模型 GoSum 来对包含多个篇章的科研文章进行摘要生成,该模型在两个公开数据集上取得了最优结果,验证了结果的鲁棒性。
Nov, 2022
本文介绍了 SummaRuNNer,一种基于递归神经网络(RNN)的序列模型,用于对文档进行抽取式摘要,并展示了它比同类现有技术表现更好或相当的性能。我们的模型具有解释性,因为它允许根据信息内容、显著性和新颖性等抽象特征可视化其预测结果。我们的另一个创新性贡献是抽象式训练抽取式模型,可以仅在人工生成的参考摘要上进行训练,消除了句子层面上的抽取式标签的需要。
Nov, 2016
本文提出了一种基于文档上下文的 Seq2Seq 模型,使用 RNN 进行描述总结。文中探讨了使用半监督技术和文档上下文方法进行大型文档总结的现有技术,并证明了该方法的高效性。
Jul, 2018
本文提出了 BERTSUM,即 BERT 的摘要变体,通过在 CNN / Dailymail 数据集上的评估证明其在提取性摘要方面超越了现有的最佳系统。
Mar, 2019