本文提出了一种全面基于数据驱动的方法,利用前馈神经网络进行单一文档摘要方法,并在标准 DUC2002 数据集上进行了模型的训练和评估,其结果与最先进的模型相当。所提出的模型可伸缩,并能够通过将原始文档分成固定大小的部分,递归地将其馈送到网络中来生成任意大小的文档摘要。
Feb, 2018
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016
本文综述了近期在基于神经网络的自动文本摘要中的十种最先进的神经网络模型,其中包括五种生成式模型和五种抽取式模型,并讨论了应用于摘要任务的相关技术和未来研究的有前途的方向。
Mar, 2018
本文提出了一种基于查询的文章摘要生成模型,使用新闻文章摘要数据集训练了指针生成模型,通过与参考摘要的相似度评估生成的摘要,结果表明可以构建类似于抽象式摘要的神经网络模型,使用查询生成有针对性的摘要。
Dec, 2017
该研究提出了一种新颖的分治法神经摘要长文档的方法,结合话语结构和句子相似性将长文档分解为多个摘要子问题。通过该方法可以有效地降低计算复杂度,提高摘要效果。
Apr, 2020
近年来,深度学习通过能够学习语言数据的复杂表示方式从而在自然语言处理中带来了革命性的变化,深度学习模型广泛应用于提升多种自然语言处理任务的性能。本文综述了近年来流行的文本摘要任务,包括抽取式、生成式、多文档等,并讨论了相关的深度学习模型以及其在这些任务上的实验结果,同时涵盖了摘要任务的数据集和数据表示,以及与之相关的机遇和挑战,旨在激发未来的研究努力以进一步推动该领域的发展。研究目标在于解释这些方法在其需求上的不同之处,因为对它们的理解对于选择适用于特定环境的技术至关重要。
Oct, 2023
通过提出一种基于动态卷积神经网络的模型,在不需要特征工程的情况下,能够从低级别的词汇特征到高级别的语义概念逐级学习,从而有效地在文档建模任务中学习到文档的含义,同时提出一种新的可视化技术,能够提供有关文档网络学习过程的见解,产生一种引人注目的文本自动摘要系统。
Jun, 2014
本研究介绍了一种创新的文本摘要方法,利用图神经网络(GNNs)和命名实体识别(NER)系统的能力,以提高摘要的效率和内容的相关性,为处理信息饱和世界中日益增长的文本数据量提供了一个有希望的方向。
Feb, 2024
本文提出了一种针对单个较长文档(如研究论文)进行抽象概括的模型,采用新的分层编码器对文章进行语篇结构建模,并运用有意识的编码器生成摘要,实验证明该模型显著优于现有模型。
Apr, 2018
本文提出了一种基于数据驱动的、对抽象句子的局部关注模型进行生成式摘要的方法,通过训练大规模数据,该模型相比较于几种强基线模型在 DUC-2004 共享任务中表现了显著的性能提升。
Sep, 2015