图神经网络和基于命名实体识别的文本摘要生成
本文提出了基于图神经网络(GNN)的抽取式摘要模型,并整合了深度神经主题模型(NTM)来发现潜在主题,从而提供句子选择的文档级特征,实验结果表明,我们的模型在 CNN/DM 和 NYT 数据集上取得了最先进的结果,在由较长文档组成的科学论文数据集上也明显优于现有方法,进一步研究表明,主题信息可以帮助模型从整个文档中预先选择凸显内容,因此能够有效地摘要长文档。
Oct, 2020
本篇论文提出了一种基于实体的文本摘要方法,采用实体构建句子 - 实体图,连接知识图谱和图神经网络实现摘要,提高了提取式和生成式基线的性能。
Feb, 2023
本文综述了近期在基于神经网络的自动文本摘要中的十种最先进的神经网络模型,其中包括五种生成式模型和五种抽取式模型,并讨论了应用于摘要任务的相关技术和未来研究的有前途的方向。
Mar, 2018
通过将序列编码器与图形成分扩展,我们开发了一个框架,旨在处理文本等弱结构化数据中的长距离关系,从而实现对序列的概括。在广泛的评估中,我们展示了这种混合模型的优越性。
Nov, 2018
本文提出了一种全面基于数据驱动的方法,利用前馈神经网络进行单一文档摘要方法,并在标准 DUC2002 数据集上进行了模型的训练和评估,其结果与最先进的模型相当。所提出的模型可伸缩,并能够通过将原始文档分成固定大小的部分,递归地将其馈送到网络中来生成任意大小的文档摘要。
Feb, 2018
我们提出了一种 Multi-GCN 模型来解决文本摘要中的问题,该模型结合了句子和词语之间的不同类型关系,并根据此模型提出了一个 Multi-GraS 模型进行提取性文本摘要。
Aug, 2021
本文提出了一种基于查询的文章摘要生成模型,使用新闻文章摘要数据集训练了指针生成模型,通过与参考摘要的相似度评估生成的摘要,结果表明可以构建类似于抽象式摘要的神经网络模型,使用查询生成有针对性的摘要。
Dec, 2017
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016
本文提出基于神经网络的 attention 模型来对长文档进行自动摘要。通过追踪文档主题之间的切换,模型实现了更好的文档理解效果,并在两个大型数据集上取得了最优表现。
Oct, 2016