走向摘要候选项融合
本研究提出一种新方法,通过生成多个变体的目标摘要,这些摘要具有不同的内容和不同的长度,并根据用户的需要进行评分和选择,该方法可用于控制摘要长度,从而实现最佳的信息概括,保证真实性并确保流畅。
Apr, 2021
本文针对序列到序列的神经网络中常见的曝光偏差问题,提出了一种在词法和语义质量之间平衡的重排序方法,并以 BERTScore 为衡量标准,在 CNN/DailyMail 数据集上实现了新的最优表现。
May, 2023
提出了一种新的非确定性分布训练方法,通过根据其质量分配概率质量到不同的候选摘要,从而解决确定性分布训练方法在推断时导致的性能下降问题, 在 CNN/DailyMail 和 XSum 数据集上均取得了优于现有方法的最优结果,并且与质量水平更相关的评估摘要的概率评估。
Mar, 2022
本文提出了一种基于能量的模型,利用自动评估指标和重排机制对生成的摘要进行排序,以解决当前抽象摘要系统存在的问题。我们的实验结果表明,这种方式可以提高生成摘要的得分,但对高度抽象的摘要的应用要小心,因为现有的指标还不足够可靠。
Oct, 2022
本文通过分析五种最新的摘要生成器生成的摘要句子,主要关注由多个文档句子融合形成的摘要句子,研究这些系统如何结合来自多个文档句子的信息。在评估员评估了这些汇总句子的语法性、忠实度和融合方法后,发现系统句子大多数是语法正确的,但往往不能忠实地保持原始文章的形式。
Oct, 2019
本文提出了基于 ILP 框架提取每个文档集的一组候选摘要,然后利用排名 SVM 进行摘要重新排名的方法,结果通过 DUC 基准数据集验证了方法的有效性和鲁棒性。
Jul, 2015
本文提出两个方法以弥补 Transformer-based summarization 模型在内容选择方面表现不佳和训练策略效率不高的缺陷,使得模型可以更好的理解要点,同时引入课程学习的方法提高了训练速度和质量,并用 Reddit TIFU 数据集和其他三个跨领域总结测量我们的模型的有效性,同时进行了人类评估表明所提出的方法在流畅性、信息量和整体质量等质量标准上具有良好的效果。
Feb, 2023
本文提出一种无监督的方法,对摘要生成的可选方案进行重新排名,以缩小无监督和有监督模型之间的性能差距。与四个广泛采用的摘要基准相比,该方法将预训练的无监督 PEGASUS 的相关平均 ROUGE 增加了 4.37% 至 7.27%,并在 30 个转移设置中实现了 7.51% 的相对增益(高达 23.73%)。
Dec, 2022
本文探讨了将抽象化方法应用于面向查询的摘要 (QFS) 以产生高一致性的文本,阐述了如何将 query relevance 纳入预训练的抽象化模型、如何嵌入多文档要求和如何将目标大小调整到给定的比例。我们将我们的方法与提取基线和各种组合抽象化模型的方法进行比较,并在 DUC QFS 数据集上展示了对 ROUGE 性能的实质性改进。
Jan, 2018