结构化神经网络摘要
提出使用层次感知图神经网络(HierGNN)实现文档结构层次分析的自动摘要模型,在 CNN / DM 和 XSum 数据集上分别取得了平均 ROUGE-1/2/L 为 0.55 和 0.75,在人工评估中也证明了其比基线具有更高的内容相关性和较少的冗余。
Nov, 2022
本研究介绍了一种创新的文本摘要方法,利用图神经网络(GNNs)和命名实体识别(NER)系统的能力,以提高摘要的效率和内容的相关性,为处理信息饱和世界中日益增长的文本数据量提供了一个有希望的方向。
Feb, 2024
提出了一种新的神经网络模型结合 Gated Graph Neural Networks 和输入转换解决了线性化启发式和参数爆炸问题,可以对 AMR 图和基于语法的神经机器翻译进行生成,实验结果表明该模型优于强基线模型。
Jun, 2018
本文提出了一种基于文档精华提取的文本摘要方法,并通过引入语言因素和改进神经网络如 LSTMs 和 Neural Semantic Encoders,利用自我强化学习模型进一步提高了文本摘要的质量,实现并超越了文本摘要领域的最佳性能,其中基于分层 NSE 模型的 ROUGE 值提升近 4 个百分点。
Oct, 2019
我们提出了一种 Multi-GCN 模型来解决文本摘要中的问题,该模型结合了句子和词语之间的不同类型关系,并根据此模型提出了一个 Multi-GraS 模型进行提取性文本摘要。
Aug, 2021
本文提出了基于语义图的 BASS 框架,它聚合了分布在长时间范围内的共指短语,并传达了短语之间的丰富关系,从而提高了文档表示和摘要生成过程,为长文档和多文档摘要任务带来了显著的改进。
May, 2021
本文提出了一种使用图神经网络的自动代码注释生成方法,该方法使用了源代码序列和图结构信息作为输入,使用 210 万个 Java 方法 - 注释对进行评估,并表明比四种基线技术均有所改进。
Apr, 2020
本文提出了一种递归图建模网络框架 SumGraph,将视频摘要生成问题转化为了图建模问题,并利用图卷积网络对递归建模过程中的节点进行二分类,从而达到更好的视频摘要效果。经实验证明,该方法在视频摘要领域取得了当前最优效果。
Jul, 2020
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016
本文提出了一种神经多文档自动摘要(MDS)系统,该系统采用句子关系图,利用图卷积网络(GCN)在关系图上执行多层次传播,从而生成高层次的句子特征并进行重要性评估,然后采用贪婪启发式方法提取显著句子。通过在 DUC 2004 上的实验,证明了结合句子关系和深度神经网络表征的优势。该模型优于传统的基于图的提取式方法和不包含图的基础 GRU 序列模型,并且在多文档自动摘要系统方面表现出了竞争力。
Jun, 2017