提出了一种多任务学习架构,用于基于从文本中提取摘要,其中包含摘要器和连贯判别器模块,通过预训练的转换模型(基于模型)和转换矩阵(MAT-based)将句子表示合并,实现了可微分训练,并以此最大化了连贯判别器的连贯度分数,并通过人工评估证实了我们方法提高了从原始文章位置开始提取的连续句子的比例以及有效保留了其他自动评估指标。
May, 2023
开发了一种基于抽象的总结框架,适用于多个异构文档,该框架独立于标记数据。 与现有的多文件总结方法不同,我们的框架处理讲述不同故事的文档,而不是同一主题的文档。 最后,我们基于 CNN / Daily Mail 和 NewsRoom 数据集构建了总共十二个数据集变体,其中每个文档组都包含大量且多样化的文档,以评估我们的模型与其他基线系统的性能。 我们的实验表明,我们的框架在这种更通用的情况下胜过了现有的最先进方法。
May, 2022
提出了一种用于单文档大意提取的全新算法,能够通过强化学习目标全局优化 ROUGE 评估指标,并在 CNN 和 DailyMail 数据集上进行了实验,展示它在人工和自动评估中均优于现有抽取和生成式提取系统的神经大意提取模型。
Feb, 2018
本文提出了一个基于句子压缩技术的任务框架,通过基于解析树的一系列学习模型,设计一种创新的 Beam Search 解码器来高效地找到高概率压缩结果,将语言学动机和查询相关性融入压缩过程中,并在多项指标上显著优于最先进的系统,包括在 DUC 2006 和 2007 摘要任务中分别获得 ROUGE-2 指标上 8.0% 和 5.4% 的改进。
Jun, 2016
本文提出基于质心的模型在文本摘要中的应用,并使用贪心算法来寻找最佳摘要,同时通过选择每个文档中的少量句子来扩展到更大的文本集合。在 DUC2004 数据集中的实验结果表明,该方法能得到与复杂最新方法相当的效果。
Aug, 2017
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016
使用心理语言学理论,我们在提取式摘要中实现了对不重复且连贯的元素进行排名。这个系统可以控制信息检索量的预算,并通过实验证明在处理冗余文档时提供了更少冗余的摘要。
本文提出了一种基于联合提取和句法压缩的神经模型用于单文档摘要,该模型选择文档中的句子,通过句法分析识别可能的压缩,并用神经模型评分这些压缩以生成最终的摘要,实验结果表明,该模型在 ROUGE 评估中表现良好,能够达到与最先进系统相当的性能,并且其输出一般保持语法正确。
Feb, 2019
本文提出了一种无监督基于质心的文档级重构框架,利用分布式词袋模型来选择摘要句以最小化摘要和文档之间的重构误差,并应用句子选择和波束搜索来进一步提高模型性能。针对两个不同的数据集实验结果表明,与现有基线相比,我们的模型表现出显著的性能提升。
Oct, 2017
在这篇论文中,我们提出了一种新颖的端到端神经网络框架,通过联合学习对句子进行评分和选择来实现摘要提取。在 CNN / Daily Mail 数据集上的实验证明,我们的方法比现有的抽取式摘要模型表现出更好的效果。
Jul, 2018