全球与本地级科技文档摘要的分层注意图
提出使用层次感知图神经网络(HierGNN)实现文档结构层次分析的自动摘要模型,在 CNN / DM 和 XSum 数据集上分别取得了平均 ROUGE-1/2/L 为 0.55 和 0.75,在人工评估中也证明了其比基线具有更高的内容相关性和较少的冗余。
Nov, 2022
提出了一种基于分层结构自注意力机制的新模型,将摘要任务作为分类问题处理,并通过信息内容、显著性、新颖性和位置表示等特征进行预测,实验结果表明该模型在 CNN / Daily Mail 和 DUC 2002 数据集上胜过当前最先进的抽取性模型。
May, 2018
本文介绍了一种异构图神经网络 (HeterSumGraph) 用于信息抽取式文档摘要的任务中,该网络结构包含不同粒度级别的语义节点,这些额外的节点作为句子之间的中介,丰富交叉句关系,同时我们的图结构在自然扩展从单个文档设置到 多文档,引入文档节点。该方法是第一次在基于图的神经网络中引入不同类型的节点进行信息抽取式文档摘要,并进行了全面的定性分析以探究其优劣。
Apr, 2020
本文提出了一种基于无监督的基于图的排名模型,用于提取科学文献的摘要。我们的方法假定源文档采用两级分层图表示,并利用不对称的位置提示来确定句子的重要性。在 PubMed 和 arXiv 数据集上的结果表明,我们的方法在自动指标和人工评价方面优于强无监督基线。此外,其性能与许多基于监督学习的方法相当。这些结果表明,篇章结构中的模式是确定科学文章重要性的强有力信号。
May, 2020
本文提出了 CHANGES,一种对比层次图神经网络,用于科学论文自动摘要。CHANGES 使用分层对话图表示科学论文,并通过专门设计的分层图信息聚合学习有效的句子表示。我们还提出了图对比学习模块,以学习全局主题感知的句子表示。在 PubMed 和 arXiv 基准数据集上的广泛实验证明了 CHANGES 的有效性以及捕捉分层结构信息在科学论文建模中的重要性。
May, 2023
本文提出了一种名为 HEGEL 的超图神经网络方法来解决长文本提取式摘要中跨句子关系建模难的问题,通过捕捉高阶跨句子关系来更新和学习有效的句子表示,并融合包括潜在主题、关键词、指代和章节结构等不同类型的句子依赖,实验证明其有效性和高效性。
Oct, 2022
本文研究了使用引文图来提高科学论文摘要生成的质量,提出了两种方法:为任务提供简单而低成本的多粒度无监督摘要生成方法 (MUS),以及对大量标记数据具有更准确结果的基于图的监督摘要方法 (GSS),并在公共基准数据集上进行了实验验证以证明方法的有效性。
Dec, 2022
本文提出了一种基于文档精华提取的文本摘要方法,并通过引入语言因素和改进神经网络如 LSTMs 和 Neural Semantic Encoders,利用自我强化学习模型进一步提高了文本摘要的质量,实现并超越了文本摘要领域的最佳性能,其中基于分层 NSE 模型的 ROUGE 值提升近 4 个百分点。
Oct, 2019
本文提出了一种神经网络归纳模型,能够有效地处理多个输入文档,并利用 Transformers 架构对文档进行层次编码,通过注意力机制来表示跨文档之间的关系,并学习文本单元之间的潜在依赖关系,在 Wikisum 数据集上的实验证明,所提出的架构比数个强基线模型都有明显的改进。
May, 2019