使用文档上下文向量和循环神经网络进行抽取式和生成式文本摘要
本研究从网络结构、训练策略和摘要生成算法三个方面全面综述了不同的 seq2seq 模型用于文本摘要生成的研究,并提出了一个名为 NATS 的开源工具包进行研究,对 CNN / Daily Mail 数据集进行了广泛的实验检验,在 Newsroom 和 Bytecup 数据集上测试了两个模型。
Dec, 2018
该研究提出了一个新颖的抽象式单文档文本摘要框架,融合了结构、语义和基于神经网络的方法,通过结合机器学习和基于知识的技术实现了一种统一的方法。实验证明了该框架在处理罕见和未登录词方面的显著改进,优于现有的深度学习技术。
Apr, 2024
通过将抽取和生成的方法相结合,利用生成模型提高了抽取式摘要的简洁性和可读性。本研究提出了上下文感知的重写方法,通过 group-tag alignments 将传统的抽取方式转化为生成方式,取得了显著的 ROUGE 分数提升。
Jul, 2022
本文探讨了在提取式摘要中基于全文进行 contextualized rewriting,将其形式化为 seq2seq 问题,引入 group tag 作为解决方案来建立关联,通过基于内容的寻址方法识别提取式摘要,结果表明我们的方法明显优于非上下文的重写系统,无需采用强化学习,在多个提取式摘要生成器上显示出显着提高的 ROUGE 分数。
Jan, 2021
该研究使用注意力编码 - 解码循环神经网络模型抽象化文本摘要,并在两个不同的语料库上展示其实现最先进的性能。同时,该研究还提出了几种解决文摘中的关键问题的新模型,比如建模关键词、捕捉句子到单词结构的层次以及提取训练时很少出现的单词等。此外,研究还建立了一个多句子的文摘数据集,以便后续的新研究能建立性能基准。
Feb, 2016
该论文提出了三个预训练目标,并基于未标记的文本对 Seq2Seq based abstractive summarization model 进行预训练,从而在有限的监督 summarization data 上改进其性能,这三个目标与 abstractive document summarization task 有密切关联。实验结果表明,这三个目标均能改进模型性能,且仅使用 19GB 的文本进行预训练即可与使用大规模数据集预训练的模型达到可比较的效果。
Apr, 2020
在信息时代,人们阅读冗长的新闻文章的时间越来越少,提供简洁的信息摘要变得比以往任何时候都更为重要。本文旨在改进现有的架构和模型,针对抽象文本摘要进行微调超参数,并尝试特定的编码器 - 解码器组合,以提高摘要生成的效果。
Mar, 2024
本文介绍了 SummaRuNNer,一种基于递归神经网络(RNN)的序列模型,用于对文档进行抽取式摘要,并展示了它比同类现有技术表现更好或相当的性能。我们的模型具有解释性,因为它允许根据信息内容、显著性和新颖性等抽象特征可视化其预测结果。我们的另一个创新性贡献是抽象式训练抽取式模型,可以仅在人工生成的参考摘要上进行训练,消除了句子层面上的抽取式标签的需要。
Nov, 2016
本文提出了一种基于语义理解的神经生成式摘要模型,通过对显要内容的语义解释学习生成高质量摘要。同时引入一种新的对抗样本评估体制,证明该模型比流行的指针 - 生成式模型更好地识别了离题信息,并且人工评估结果表明本文模型生成的摘要更具信息量和可信度,且冗余度更低。
Oct, 2018
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016