主题引导的抽象多文档摘要
本文提出了一种神经抽象的文档多摘要模型,该模型利用文档之间的相似性图和话语图等知名图形表示来更有效地处理多个输入文档并生成抽象的摘要,其利用图形编码文档以捕捉跨文档关系,可以利用图形来指导摘要生成过程,结果表明该架构相比多个强基线带来了实质性的改进。
May, 2020
本文回顾了近期基于深度学习的多文档摘要模型,提出了新的分类方法以及对这个领域的现状进行了综合总结,并且强调了现有文献中很少讨论的各种目标函数之间的区别,最后对未来发展方向提出了几个建议。
Nov, 2020
本文介绍一种用于评估多文档摘要生成模型及数据集中数据分散程度的自动化度量方法,并检验几个流行的多文档摘要数据集,结果表明某些数据集没有利用多文档信息,提出应用该度量方法评估数据集和模型的性能。
Oct, 2022
本文提出了 KGSum 多文档科学总结的模型,重点在于在编码和解码过程中使用知识图谱来实现内容和关系建模。经验证实验结果显示,相较于基准结果,该架构带来了显著的改进。
Sep, 2022
本文介绍了首个大规模多文档新闻数据集 Multi-News,并提出一个将传统提取式摘要模型与标准单文档摘要模型结合的端到端模型,取得了有竞争力的结果。我们在 Multi-News 上比较了几种方法,并希望我们的数据和代码能促进多文档摘要领域的进展。
Jun, 2019
HGSUM 是一种多文档摘要模型,其通过使用异构图来表示文档中的不同语义单元(例如单词和句子),并使用图池化进行压缩以保留文档中关键信息和关系。在训练中,HGSUM 使用另一种目标来最大化压缩图与来源自地面真实摘要构建的图之间的相似性,并通过相似性和标准交叉熵目标进行端到端训练,在 MULTI-NEWS、WCEP-100 和 ARXIV 数据集上表现优于现有的多文档摘要模型。
Mar, 2023
本文针对多文档自动摘要问题,提出了一个基于小型多文档训练集的神经抽象模型 fine-tuning 方法,实证结果在两个基准 DUC 数据集上表现优异。
Apr, 2018
本研究通过抽象式的多文档摘要(MDS)将生成人类般的主题标签作为替代方案,此外结合聚类和摘要来评估主题模型,以理解需要进一步研究才能实现 MDS 主题标签功能,同时提出了改进 MDS 的思路。
Oct, 2022
本文提出了一种新的基于 Transformer 的方法,称为 Absformer,旨在针对没有提供摘要总结的文档进行无监督的抽象式多文档摘要生成,并在现实世界的三个不同领域的数据集上进行了评估,结果表明该方法在评价指标方面取得了实质性的提高,并且具有从不同领域的数据集中泛化的优势。
Jun, 2023
本文提出一种通过提取 - 摘要 Transformer 框架解决多文档摘要中输入长度过长问题的方法,其中包括分层提取和摘要重写。通过权重和深度强化学习等机制建立了抽取 - 摘要模型,实现了在大型数据集 Multi-News,Multi-XScience 和 WikiCatSum 上具有最佳效果的模型。
May, 2022