基于混合记忆网络的文摘提取模型
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016
本文提出了一种全面基于数据驱动的方法,利用前馈神经网络进行单一文档摘要方法,并在标准 DUC2002 数据集上进行了模型的训练和评估,其结果与最先进的模型相当。所提出的模型可伸缩,并能够通过将原始文档分成固定大小的部分,递归地将其馈送到网络中来生成任意大小的文档摘要。
Feb, 2018
本论文介绍了一种基于强化学习并且能够逐步提取文本摘要的 MemSum 摘要器,它在每一步都可以使用包括文本内容、全局文本上下文和提取历史在内的信息集合来决定摘要中摘录哪些句子;经对 PubMed、arXiv 和 GovReport 等长文档进行测试,该轻量架构模型的 ROUGE 性能处于领先水平;消融研究证明了局部、全局和历史信息的重要性;人类评估也印证了 MemSum 生成的摘要质量高且冗余度低。
Jul, 2021
本文提出了一种基于联合提取和句法压缩的神经模型用于单文档摘要,该模型选择文档中的句子,通过句法分析识别可能的压缩,并用神经模型评分这些压缩以生成最终的摘要,实验结果表明,该模型在 ROUGE 评估中表现良好,能够达到与最先进系统相当的性能,并且其输出一般保持语法正确。
Feb, 2019
提出了一种全新的编辑网络的思想 - 一种混合抽取 - 生成式摘要的方法,应用于给定抽取的句子序列的后处理步骤中。我们的网络试图模仿人类编辑在摘要过程中的决策过程。使用 CNN / DailyMail 数据集,我们演示了我们的方法相对于最先进的单一抽取或生成式基准方法的有效性,进一步提出了一种基于新颖的软标签方法的 “编辑器” 的有效培训方法。
Feb, 2019
本文提出了基于图神经网络(GNN)的抽取式摘要模型,并整合了深度神经主题模型(NTM)来发现潜在主题,从而提供句子选择的文档级特征,实验结果表明,我们的模型在 CNN/DM 和 NYT 数据集上取得了最先进的结果,在由较长文档组成的科学论文数据集上也明显优于现有方法,进一步研究表明,主题信息可以帮助模型从整个文档中预先选择凸显内容,因此能够有效地摘要长文档。
Oct, 2020
开发了一种基于抽象的总结框架,适用于多个异构文档,该框架独立于标记数据。 与现有的多文件总结方法不同,我们的框架处理讲述不同故事的文档,而不是同一主题的文档。 最后,我们基于 CNN / Daily Mail 和 NewsRoom 数据集构建了总共十二个数据集变体,其中每个文档组都包含大量且多样化的文档,以评估我们的模型与其他基线系统的性能。 我们的实验表明,我们的框架在这种更通用的情况下胜过了现有的最先进方法。
May, 2022
在这篇论文中,我们提出了一种新颖的端到端神经网络框架,通过联合学习对句子进行评分和选择来实现摘要提取。在 CNN / Daily Mail 数据集上的实验证明,我们的方法比现有的抽取式摘要模型表现出更好的效果。
Jul, 2018
本文综述了近期在基于神经网络的自动文本摘要中的十种最先进的神经网络模型,其中包括五种生成式模型和五种抽取式模型,并讨论了应用于摘要任务的相关技术和未来研究的有前途的方向。
Mar, 2018
我们提出了一种 Multi-GCN 模型来解决文本摘要中的问题,该模型结合了句子和词语之间的不同类型关系,并根据此模型提出了一个 Multi-GraS 模型进行提取性文本摘要。
Aug, 2021