AttSum: 神经注意力机制的聚焦和摘要联合学习
SUMO 是一种基于神经注意力机制的方法,可以通过文本证据(如新闻文章或 Web 文档)来确定文本声明的正确性。SUMO 可以通过呈现来自文档的多样化句子并解释其在文本声明正确性方面的决策,生成提取式摘要。相较于传统的单纯文本素材计算机制,SUMO 使用了改进的声明和标题指导的分层注意机制来模拟有效的上下文线索。在政治、医疗和环境领域的测试数据集上展示了我们方法的有效性。
Oct, 2020
本文提出了一种基于数据驱动的、对抽象句子的局部关注模型进行生成式摘要的方法,通过训练大规模数据,该模型相比较于几种强基线模型在 DUC-2004 共享任务中表现了显著的性能提升。
Sep, 2015
BayeSum 是一种基于贝叶斯模型的用于句子提取的模型,可以利用多个相关文档来增强查询词信息,处理短查询不足问题,并得到了最先进的结果,在信息检索框架中可以被理解为一种验证的查询扩展技术。
Jul, 2009
这项研究介绍了一种新的方法,增强型查询摘要(AQS),用于针对主题的摘要,无需大量标记数据集,利用查询扩展和分层聚类。通过 real-world 测试,我们的方法展示了生成相关和准确的摘要的能力,显示其在数据丰富环境中作为一种经济高效的解决方案的潜力,为主题聚焦摘要技术领域中的更广泛应用和可访问性铺平了道路,提供了一种可扩展的、高效的个性化内容提取方法。
Apr, 2024
该研究提出了两个自适应模型,分别为 AREDSUM-SEQ 和 AREDSUM-CTX,分别考虑文本中的句子显著性、新颖性和多样性等特征,通过实验验证,AREDSUM-CTX 在 CNN/DailyMail 和 NYT50 数据集上表现优于 AREDSUM-SEQ 和抽取式摘要基线模型。
Apr, 2020
本文介绍了一种名为 Ranksum 的基于多维句子特征排名融合的单文本抽取式摘要方法,通过提取每个句子的主题信息、语义内容、显著关键词和位置,然后在无监督的方式下使用加权融合四个分数,将句子按照重要性进行排序。该方法利用概率主题模型确定主题排名,使用句子嵌入来捕捉语义信息,通过 Siamese 网络生成抽象句子表示,并利用图论方法找到文档中的重要关键词和相关句子排名,在摘要中采用基于二元组、三元组和句子嵌入的句子新颖性度量来消除冗余句子,最后融合所有特征计算出文档中每个句子的最终得分。实验结果表明,该方法在公开的 CNN/DailyMail 和 DUC 2002 摘要数据集上优于其他现有最先进的摘要方法。
Feb, 2024
本文提出了一种基于 Query-Utterance Attention 的查询感知框架,通过密集检索模型计算与查询的话语级相关性,同时将标记级查询相关性和话语级查询相关性组合, 并明确地将其合并到生成过程中的注意机制中以生成与查询更相关的摘要,实验结果表明,该模型在 QMSum 数据集上实现了新的最优表现。
Mar, 2023
该论文提出了一种利用对比学习来改进模型关注输入文档中最相关区域的新方法 QontSum,应用于基于查询的摘要生成,强调 QFS 在 Gen-IR 中 Grounded Answer Generation(GAR)上的作用,并通过基准测试数据集和人类评估说明了它的有效性和实用性。
Jul, 2023
该研究提出了一种基于编码 - 注意 - 解码范式的查询式摘要模型,具有查询注意模型和多样性基于注意模型。实验表明,该模型相对于基础模型具有 28% 的 ROUGE-L 分数的增益。
Apr, 2017
本文提出了一种利用问答奖励来引导监督式摘要系统的新框架,通过人类摘要获得问答对来评估总结与原文件的关系,并且该系统学习如何推广信息量大、流畅度高且在问答方面表现良好的总结,结果表明其表现优于基线总结和人类评估。
Apr, 2019