利用答案相关性提高查询聚焦主题摘要
本文探讨了将抽象化方法应用于面向查询的摘要 (QFS) 以产生高一致性的文本,阐述了如何将 query relevance 纳入预训练的抽象化模型、如何嵌入多文档要求和如何将目标大小调整到给定的比例。我们将我们的方法与提取基线和各种组合抽象化模型的方法进行比较,并在 DUC QFS 数据集上展示了对 ROUGE 性能的实质性改进。
Jan, 2018
该研究提出了一种基于神经网络的 MaRGE 模型,通过弱监督学习从支持证据中生成查询模型和自动生成摘要,从而实现基于查询的自动摘要,在查询爆炸性增长和追踪信息的需要下,取得了最先进的表现。
Dec, 2020
该论文提出了一种利用对比学习来改进模型关注输入文档中最相关区域的新方法 QontSum,应用于基于查询的摘要生成,强调 QFS 在 Gen-IR 中 Grounded Answer Generation(GAR)上的作用,并通过基准测试数据集和人类评估说明了它的有效性和实用性。
Jul, 2023
本文系统地探讨了神经网络方法在以查询为中心的自动文摘 (QFS) 中的应用,涉及了两种分类:抽取式 - 生成式和端到端模型,并提出了两种模型扩展。这些方法在 QMSum 数据集上实现了最先进的性能,并通过人类评估实现了更全面和基于事实的自动文摘。
Dec, 2021
我们提出了一种知识增强的两阶段框架,称为知识感知摘要生成器,用于解决查询焦点会议摘要生成(QFMS)中的输入长度和稀疏查询相关信息的主要挑战,并通过在摘要生成过程中引入查询相关知识来提高性能。实验结果证明了我们方法在生成相关且准确的摘要方面的竞争力。
Sep, 2023
提出了一种使用强化学习和多个策略梯度网络的查询导向摘要生成方法,通过改进语义相似性奖励以及使用聚类假设构建的段落嵌入方案,显著提高了生成文本质量和性能。
Nov, 2023
本文提出了一种解决摘要生成模型中可能存在错误信息的方法,策略包括评估指标度量、新型学习算法、人工评估等,并通过大量实验证明该方法对提高信息事实准确性和提高摘要整体质量都非常有效。
May, 2021
本研究提出了 Faithfulness Enhanced Summarization (FES) 模型,该模型使用 question-answering (QA) 技术检查 encoder 是否完全理解输入文档,并回答关键信息的问题,并引入 max-margin loss 来防止语言模型的过度自信。实验表明,我们的模型在两个基准摘要数据集 CNN/DM 和 XSum 上显著优于强对比模型,并生成比对比模型更符合事实的摘要。
Oct, 2022
本研究提出一种基于约束生成模型 Neurological Decoding 的查询聚焦摘要算法,避免了额外的参数和训练,使用轻量的梯度归因模型从文档中提取重要的标记,并通过操作最终词汇似然使生成的摘要满足这些约束条件。该方法在两个公共 QFS 集合上表现出与最先进模型相近的有效性。
Apr, 2023