从单文档到多文档摘要生成的神经编码器 - 解码器框架改进
本文提出了一种针对单个较长文档(如研究论文)进行抽象概括的模型,采用新的分层编码器对文章进行语篇结构建模,并运用有意识的编码器生成摘要,实验证明该模型显著优于现有模型。
Apr, 2018
开发了一种基于抽象的总结框架,适用于多个异构文档,该框架独立于标记数据。 与现有的多文件总结方法不同,我们的框架处理讲述不同故事的文档,而不是同一主题的文档。 最后,我们基于 CNN / Daily Mail 和 NewsRoom 数据集构建了总共十二个数据集变体,其中每个文档组都包含大量且多样化的文档,以评估我们的模型与其他基线系统的性能。 我们的实验表明,我们的框架在这种更通用的情况下胜过了现有的最先进方法。
May, 2022
本文探讨如何运用交叉文档背书效应实现多文档摘要,方法是利用每个文件的综述作为认同者,从其他文件中鉴别显著内容,使用神经编码 - 解码模型整理它们,成为摘要。结果表明,这种方法在基准多文件摘要数据集上比目前基于规则的最强基线方法更为有效。
Oct, 2021
本文针对多文档自动摘要问题,提出了一个基于小型多文档训练集的神经抽象模型 fine-tuning 方法,实证结果在两个基准 DUC 数据集上表现优异。
Apr, 2018
本文提出了一种基于神经网络的无监督自动编码器架构,用于进行商品评论的抽象摘要,通过自动化指标和人类评估表明,该模型生成的摘要高度抽象、流畅、相关,并代表了输入评论的情感倾向。
Oct, 2018
本文提出一种通过提取 - 摘要 Transformer 框架解决多文档摘要中输入长度过长问题的方法,其中包括分层提取和摘要重写。通过权重和深度强化学习等机制建立了抽取 - 摘要模型,实现了在大型数据集 Multi-News,Multi-XScience 和 WikiCatSum 上具有最佳效果的模型。
May, 2022
本文提出了一种神经网络归纳模型,能够有效地处理多个输入文档,并利用 Transformers 架构对文档进行层次编码,通过注意力机制来表示跨文档之间的关系,并学习文本单元之间的潜在依赖关系,在 Wikisum 数据集上的实验证明,所提出的架构比数个强基线模型都有明显的改进。
May, 2019
本文提出了一种神经抽象的文档多摘要模型,该模型利用文档之间的相似性图和话语图等知名图形表示来更有效地处理多个输入文档并生成抽象的摘要,其利用图形编码文档以捕捉跨文档关系,可以利用图形来指导摘要生成过程,结果表明该架构相比多个强基线带来了实质性的改进。
May, 2020
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016