摘要 - 来源对齐的力量
该论文提出了一种以监督分类的方式在更准确的命题跨度级别进行摘要 - 源文本对齐的方法,并利用众包数据构建了一个新的训练数据集,表明该方法在句子对齐质量方面的效果优于无监督方法。
Sep, 2020
本文介绍一种用于评估多文档摘要生成模型及数据集中数据分散程度的自动化度量方法,并检验几个流行的多文档摘要数据集,结果表明某些数据集没有利用多文档信息,提出应用该度量方法评估数据集和模型的性能。
Oct, 2022
本文通过使用多个 MDS 语料库和一系列最先进的模型来研究这个异构任务,并尝试量化纲要质量并提出考虑制定新 MDS 纲要的要点。此外,我们分析了缺乏在所有语料库上均实现卓越性能的 MDS 系统的原因,并观察到流程度受到系统指标度量的影响,并由于语料库属性而传播偏见。
Oct, 2020
本文回顾了近期基于深度学习的多文档摘要模型,提出了新的分类方法以及对这个领域的现状进行了综合总结,并且强调了现有文献中很少讨论的各种目标函数之间的区别,最后对未来发展方向提出了几个建议。
Nov, 2020
我们提出了一种用于摘要生成的检索引导模型,结合了非参数记忆。该模型使用近似最近邻搜索从数据库中检索相关的候选文本,然后利用复制机制和源文档生成摘要。我们在包括科学文章的 MultiXScience 数据集上评估了我们的方法,并讨论了我们的结果和未来工作的可能方向。
Nov, 2023
本研究重新审视单词聚类方法,通过将子句命题分组,从而能更精确地对齐信息。我们的方法检测重要的命题,将它们聚类形成释义的群集,并通过文本融合为每个聚类生成代表性句子。在 DUC2004 和 TAC2011 数据集中,我们的总结方法在自动 ROUGE 分数和人类偏好方面优于先前的 MDS 方法。
Dec, 2021
提出了一种名为 CAST 的归类对齐和稀疏变换器的自动摘要方法,使用 BigSurvey 数据集,将超过 7000 份调查论文的摘要作为目标摘要,430,000 篇参考论文的摘要作为输入文档,赢得了各种高级自动摘要方法的比较实验。
Feb, 2023
本研究提出了一种带有 Attention Alignment 机制的 Parallel Hierarchical Transformer(PHT)用于 Multi-Document Summarization(MDS)。 通过将单词级和段落级的 multi-head attention 结构综合起来,PHT 的分层体系结构可以更好地处理令牌和文档级别的依赖关系,从而更好地处理内部和跨文档信息。 基于 WikiSum 数据,对所提出的体系结构进行了全面评估,结果表明,相对于其他基于 Transformer 的基线,我们的分层模型可以以相对较低的计算成本,通过更好的处理 MDS 来生成更高质量的摘要。
Aug, 2022
本文提出了 KGSum 多文档科学总结的模型,重点在于在编码和解码过程中使用知识图谱来实现内容和关系建模。经验证实验结果显示,相较于基准结果,该架构带来了显著的改进。
Sep, 2022