本文介绍了一种异构图神经网络 (HeterSumGraph) 用于信息抽取式文档摘要的任务中,该网络结构包含不同粒度级别的语义节点,这些额外的节点作为句子之间的中介,丰富交叉句关系,同时我们的图结构在自然扩展从单个文档设置到 多文档,引入文档节点。该方法是第一次在基于图的神经网络中引入不同类型的节点进行信息抽取式文档摘要,并进行了全面的定性分析以探究其优劣。
Apr, 2020
本篇论文提出了一种基于实体的文本摘要方法,采用实体构建句子 - 实体图,连接知识图谱和图神经网络实现摘要,提高了提取式和生成式基线的性能。
Feb, 2023
利用预训练句子表示解决自动摘要中的关键句子识别问题,通过图预训练自编码器获得句子嵌入,并应用基于图的排名算法进行无监督摘要生成,表现优于基于 BERT 或 RoBERTa 的句子表示方法。
Oct, 2023
本文研究了使用引文图来提高科学论文摘要生成的质量,提出了两种方法:为任务提供简单而低成本的多粒度无监督摘要生成方法 (MUS),以及对大量标记数据具有更准确结果的基于图的监督摘要方法 (GSS),并在公共基准数据集上进行了实验验证以证明方法的有效性。
Dec, 2022
我们提出了 HAESum,一种利用图神经网络在基于分层话语结构的文档中进行局部和全局建模的新方法。通过使用局部异构图来学习句内关系,然后引入一种新颖的超图自注意层以进一步增强句间高阶关系的表征,在两个基准数据集上验证了我们的方法,实验结果表明考虑分层结构在建模长篇科技文档中的重要性以及 HAESum 的有效性。
May, 2024
我们提出了一种 Multi-GCN 模型来解决文本摘要中的问题,该模型结合了句子和词语之间的不同类型关系,并根据此模型提出了一个 Multi-GraS 模型进行提取性文本摘要。
Aug, 2021
本文提出了一种使用 transformer 自注意力机制进行无监督文本摘要提取的方法,并在 CNN / DailyMail 和 New York Times 数据集上证明其优于现有的无监督模型,且不太依赖于句子位置。
Oct, 2020
本文提出了一种名为 HEGEL 的超图神经网络方法来解决长文本提取式摘要中跨句子关系建模难的问题,通过捕捉高阶跨句子关系来更新和学习有效的句子表示,并融合包括潜在主题、关键词、指代和章节结构等不同类型的句子依赖,实验证明其有效性和高效性。
Oct, 2022
提出使用层次感知图神经网络(HierGNN)实现文档结构层次分析的自动摘要模型,在 CNN / DM 和 XSum 数据集上分别取得了平均 ROUGE-1/2/L 为 0.55 和 0.75,在人工评估中也证明了其比基线具有更高的内容相关性和较少的冗余。
Nov, 2022
HGSUM 是一种多文档摘要模型,其通过使用异构图来表示文档中的不同语义单元(例如单词和句子),并使用图池化进行压缩以保留文档中关键信息和关系。在训练中,HGSUM 使用另一种目标来最大化压缩图与来源自地面真实摘要构建的图之间的相似性,并通过相似性和标准交叉熵目标进行端到端训练,在 MULTI-NEWS、WCEP-100 和 ARXIV 数据集上表现优于现有的多文档摘要模型。
Mar, 2023