带前缀合并的小样本查询驱动摘要
该研究提出了一种基于神经网络的 MaRGE 模型,通过弱监督学习从支持证据中生成查询模型和自动生成摘要,从而实现基于查询的自动摘要,在查询爆炸性增长和追踪信息的需要下,取得了最先进的表现。
Dec, 2020
这项研究介绍了一种新的方法,增强型查询摘要(AQS),用于针对主题的摘要,无需大量标记数据集,利用查询扩展和分层聚类。通过 real-world 测试,我们的方法展示了生成相关和准确的摘要的能力,显示其在数据丰富环境中作为一种经济高效的解决方案的潜力,为主题聚焦摘要技术领域中的更广泛应用和可访问性铺平了道路,提供了一种可扩展的、高效的个性化内容提取方法。
Apr, 2024
本文提出了基于前缀微调(prefix tuning)的方法,使用一组可训练的连续前缀提示和离散提示来辅助模型生成,显著提高了使用 GPT-2 生成的 CNN/Daily Mail 和 XSum 摘要的事实保留。此方法在知识增强的文档摘要中表现出了其有效性,并显示了在其他自然语言处理任务中的巨大潜力。
Jan, 2023
提出一种称为 UniSumm 的统一的 few-shot summarization 模型来共同处理多个任务,并可前缀调整以适应任何 few-shot summarization 数据集,并宣传了一个新的基准 SummZoo,其由 8 个不同的生成任务组成, 结果表明,UniSumm 超越了强基准系统,并在 SummZoo 的所有任务中都通过自动和人工评估实现了更好的效果。
Nov, 2022
本文提出了一种高效且通用的基于领域的前缀微调模型,利用领域词初始化前缀模块以减轻领域交错,采用离散提示来引导模型关注对话的关键内容并增强模型的泛化能力。我们在 TODSum 和 QMSum 数据集上进行了零 - shot 实验,并构建了领域自适应基准。充分的实验和定性分析证明了我们方法的有效性。
Apr, 2022
该论文提出了一种利用对比学习来改进模型关注输入文档中最相关区域的新方法 QontSum,应用于基于查询的摘要生成,强调 QFS 在 Gen-IR 中 Grounded Answer Generation(GAR)上的作用,并通过基准测试数据集和人类评估说明了它的有效性和实用性。
Jul, 2023
本文探讨了将抽象化方法应用于面向查询的摘要 (QFS) 以产生高一致性的文本,阐述了如何将 query relevance 纳入预训练的抽象化模型、如何嵌入多文档要求和如何将目标大小调整到给定的比例。我们将我们的方法与提取基线和各种组合抽象化模型的方法进行比较,并在 DUC QFS 数据集上展示了对 ROUGE 性能的实质性改进。
Jan, 2018
本研究提出了基于问题回答模型的 QFS-BART 模型,通过显式的答案相关性,生成连贯且与答案相关的摘要,并在 Debatepedia 数据集上取得了最新的最优性能。
May, 2021