神经抽取式文本摘要与句法压缩
提出了一种新的神经模型用于文本摘要,首先从文档中提取句子然后再压缩它们,达到了抽象方法所暴露出的难度和提取方法所缺乏的简洁性的平衡,且所提模型在 CNN/DailyMail 和 Newsroom 数据集上均取得了最先进的效果。
Apr, 2019
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016
在这篇论文中,我们提出了一种新颖的端到端神经网络框架,通过联合学习对句子进行评分和选择来实现摘要提取。在 CNN / Daily Mail 数据集上的实验证明,我们的方法比现有的抽取式摘要模型表现出更好的效果。
Jul, 2018
本文提出了基于图神经网络(GNN)的抽取式摘要模型,并整合了深度神经主题模型(NTM)来发现潜在主题,从而提供句子选择的文档级特征,实验结果表明,我们的模型在 CNN/DM 和 NYT 数据集上取得了最先进的结果,在由较长文档组成的科学论文数据集上也明显优于现有方法,进一步研究表明,主题信息可以帮助模型从整个文档中预先选择凸显内容,因此能够有效地摘要长文档。
Oct, 2020
开发了一种基于抽象的总结框架,适用于多个异构文档,该框架独立于标记数据。 与现有的多文件总结方法不同,我们的框架处理讲述不同故事的文档,而不是同一主题的文档。 最后,我们基于 CNN / Daily Mail 和 NewsRoom 数据集构建了总共十二个数据集变体,其中每个文档组都包含大量且多样化的文档,以评估我们的模型与其他基线系统的性能。 我们的实验表明,我们的框架在这种更通用的情况下胜过了现有的最先进方法。
May, 2022
本文提出了一种全面基于数据驱动的方法,利用前馈神经网络进行单一文档摘要方法,并在标准 DUC2002 数据集上进行了模型的训练和评估,其结果与最先进的模型相当。所提出的模型可伸缩,并能够通过将原始文档分成固定大小的部分,递归地将其馈送到网络中来生成任意大小的文档摘要。
Feb, 2018
本文提出了一种判别模型,它将压缩和先行语限制结合起来,选择文本单元以生成单文档摘要,并在大语料库上学习权重。训练后,该系统在 ROUGE 和人类语言质量判断方面均优于其他已有工作。
Mar, 2016
本文提出了一个基于句子压缩技术的任务框架,通过基于解析树的一系列学习模型,设计一种创新的 Beam Search 解码器来高效地找到高概率压缩结果,将语言学动机和查询相关性融入压缩过程中,并在多项指标上显著优于最先进的系统,包括在 DUC 2006 和 2007 摘要任务中分别获得 ROUGE-2 指标上 8.0% 和 5.4% 的改进。
Jun, 2016
提出了一种利用无监督双代理强化学习来优化摘要语义覆盖和流畅度的高效且可解释的压缩摘要方法,该模型由提取器代理和压缩器代理组成,并且两个代理都具有多头注意力指针结构。实验结果表明,该模型在广泛使用的三个数据集上均取得了有希望的表现。
Jun, 2023
本研究提出了一种称为混合记忆网络的全数据驱动端到端深度网络,用于单个文档摘要任务,其通过联合捕获局部和全局句子信息以及摘要有价值的句子的概念来学习文档的连续统一表示,实验结果表明,与现有最先进的基线相比,该模型展示了显著的性能提升。
Dec, 2019