SummaReranker:一个多任务专家混合再排序框架用于抽象摘要
本文提出一种无监督的方法,对摘要生成的可选方案进行重新排名,以缩小无监督和有监督模型之间的性能差距。与四个广泛采用的摘要基准相比,该方法将预训练的无监督 PEGASUS 的相关平均 ROUGE 增加了 4.37% 至 7.27%,并在 30 个转移设置中实现了 7.51% 的相对增益(高达 23.73%)。
Dec, 2022
本文针对序列到序列的神经网络中常见的曝光偏差问题,提出了一种在词法和语义质量之间平衡的重排序方法,并以 BERTScore 为衡量标准,在 CNN/DailyMail 数据集上实现了新的最优表现。
May, 2023
本文介绍了 SummaRuNNer,一种基于递归神经网络(RNN)的序列模型,用于对文档进行抽取式摘要,并展示了它比同类现有技术表现更好或相当的性能。我们的模型具有解释性,因为它允许根据信息内容、显著性和新颖性等抽象特征可视化其预测结果。我们的另一个创新性贡献是抽象式训练抽取式模型,可以仅在人工生成的参考摘要上进行训练,消除了句子层面上的抽取式标签的需要。
Nov, 2016
研究采用 Refactor 模型提出了一种新的文本摘要和摘要组合的统一框架,实现了在不同应用场景中的综合评估,并显着提高了在 CNN / DailyMail 数据集上的性能表现。
Apr, 2021
提出了一种用于单文档大意提取的全新算法,能够通过强化学习目标全局优化 ROUGE 评估指标,并在 CNN 和 DailyMail 数据集上进行了实验,展示它在人工和自动评估中均优于现有抽取和生成式提取系统的神经大意提取模型。
Feb, 2018
本文提出了基于 ILP 框架提取每个文档集的一组候选摘要,然后利用排名 SVM 进行摘要重新排名的方法,结果通过 DUC 基准数据集验证了方法的有效性和鲁棒性。
Jul, 2015
该论文提出了 RetrievalSum,一种新颖的检索增强抽象概括框架,包括一个稠密的 Retriever 和一个 Summarizer,可以通过检索相关的用作补充输入的实例来帮助生成模型更全面地理解文本,并在 BillSum 上取得了最新的业界最佳成绩。
Sep, 2021
本文提出两个方法以弥补 Transformer-based summarization 模型在内容选择方面表现不佳和训练策略效率不高的缺陷,使得模型可以更好的理解要点,同时引入课程学习的方法提高了训练速度和质量,并用 Reddit TIFU 数据集和其他三个跨领域总结测量我们的模型的有效性,同时进行了人类评估表明所提出的方法在流畅性、信息量和整体质量等质量标准上具有良好的效果。
Feb, 2023
本文提出了一种基于能量的模型,利用自动评估指标和重排机制对生成的摘要进行排序,以解决当前抽象摘要系统存在的问题。我们的实验结果表明,这种方式可以提高生成摘要的得分,但对高度抽象的摘要的应用要小心,因为现有的指标还不足够可靠。
Oct, 2022