该研究提出了一种基于神经网络的 MaRGE 模型,通过弱监督学习从支持证据中生成查询模型和自动生成摘要,从而实现基于查询的自动摘要,在查询爆炸性增长和追踪信息的需要下,取得了最先进的表现。
Dec, 2020
本文系统地探讨了神经网络方法在以查询为中心的自动文摘 (QFS) 中的应用,涉及了两种分类:抽取式 - 生成式和端到端模型,并提出了两种模型扩展。这些方法在 QMSum 数据集上实现了最先进的性能,并通过人类评估实现了更全面和基于事实的自动文摘。
Dec, 2021
本研究提出了一种基于问题回答的粗糙到精细的建模框架,用于解决过去在建立查询与文本段之间关联性上面的问题,并在标准 QFS 基准测试中表现优异。
Apr, 2020
该论文提出了一种利用对比学习来改进模型关注输入文档中最相关区域的新方法 QontSum,应用于基于查询的摘要生成,强调 QFS 在 Gen-IR 中 Grounded Answer Generation(GAR)上的作用,并通过基准测试数据集和人类评估说明了它的有效性和实用性。
Jul, 2023
本研究提出一种基于约束生成模型 Neurological Decoding 的查询聚焦摘要算法,避免了额外的参数和训练,使用轻量的梯度归因模型从文档中提取重要的标记,并通过操作最终词汇似然使生成的摘要满足这些约束条件。该方法在两个公共 QFS 集合上表现出与最先进模型相近的有效性。
Apr, 2023
本文提出了一种名为 AQuaMuSe 的可扩展方法,用于自动从问答数据集和大型文档语料库中挖掘基于查询的多文档摘要示例,其中包括种类独特的可提取和抽象式摘要数据集,并提供了详细的数据集评估和基线摘要模型实验。
Oct, 2020
本文探讨了将抽象化方法应用于面向查询的摘要 (QFS) 以产生高一致性的文本,阐述了如何将 query relevance 纳入预训练的抽象化模型、如何嵌入多文档要求和如何将目标大小调整到给定的比例。我们将我们的方法与提取基线和各种组合抽象化模型的方法进行比较,并在 DUC QFS 数据集上展示了对 ROUGE 性能的实质性改进。
Jan, 2018
我们提出了一种知识增强的两阶段框架,称为知识感知摘要生成器,用于解决查询焦点会议摘要生成(QFMS)中的输入长度和稀疏查询相关信息的主要挑战,并通过在摘要生成过程中引入查询相关知识来提高性能。实验结果证明了我们方法在生成相关且准确的摘要方面的竞争力。
Sep, 2023
通过使用知识图谱增强大型语言模型的问答性能,我们提出了 EFSum,一种以证据为中心的事实摘要框架,它通过蒸馏和偏好对齐来优化语言模型作为事实摘要器,从而改进了零 - shot 问答性能,且可以确保摘要的有用性和忠实性。
Mar, 2024
本文通过利用远程监督的方法来进行弱监督学习,使用类似于目标数据集的数据作为训练数据,借助预训练的句子相似度模型生成每个文档的弱参考摘要,进而在多篇文档中逐一确定单篇文档的摘要,最终在 DUC 数据集上以多种评价指标居于业内领先水平。
Nov, 2020