基于神经网络的摘要生成方法调研
自动摘要是计算机缩短文本数据的过程,以创建一个表示原始文本中最重要的信息的子集 (摘要)。现有的摘要方法大致可以分为两类:抽取式和生成式,前者会从源文档中显式选择文本片段 (单词,短语,句子等) ,而后者则会生成新的文本片段来传达源文件中最突出的概念。
Apr, 2022
本文提出了一种基于查询的文章摘要生成模型,使用新闻文章摘要数据集训练了指针生成模型,通过与参考摘要的相似度评估生成的摘要,结果表明可以构建类似于抽象式摘要的神经网络模型,使用查询生成有针对性的摘要。
Dec, 2017
本文详细介绍了文本摘要的各种方法,包括提取和抽象两种途径,评估指标、基准数据集与未来的研究展望,并讨论了生成摘要的不同评估方法与相关研究中可能出现的挑战和研究机遇。
Mar, 2022
本文提出了一种全面基于数据驱动的方法,利用前馈神经网络进行单一文档摘要方法,并在标准 DUC2002 数据集上进行了模型的训练和评估,其结果与最先进的模型相当。所提出的模型可伸缩,并能够通过将原始文档分成固定大小的部分,递归地将其馈送到网络中来生成任意大小的文档摘要。
Feb, 2018
近年来,深度学习通过能够学习语言数据的复杂表示方式从而在自然语言处理中带来了革命性的变化,深度学习模型广泛应用于提升多种自然语言处理任务的性能。本文综述了近年来流行的文本摘要任务,包括抽取式、生成式、多文档等,并讨论了相关的深度学习模型以及其在这些任务上的实验结果,同时涵盖了摘要任务的数据集和数据表示,以及与之相关的机遇和挑战,旨在激发未来的研究努力以进一步推动该领域的发展。研究目标在于解释这些方法在其需求上的不同之处,因为对它们的理解对于选择适用于特定环境的技术至关重要。
Oct, 2023
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016
本文是一篇关于使用自然语言处理技术生成简化版摘要的研究综述,发现基于 transformer 的方法如 BERT 和 PEGASUS 在生成 lay text summarisation 方面相对优秀,并建议采用抽取式和生成式相结合的混合方法,并开发一些新的评估指标以确保 lay summary 更易读。
Mar, 2023
本研究论文针对新闻文本自动摘要的抽取和生成方法进行了广泛的比较评估,重点分析了 ROUGE 分数。研究使用 CNN-Daily Mail 数据集,包括新闻文章和人工生成的参考摘要。通过 ROUGE 分数评估生成摘要的效果和质量,再将表现最佳的模型整合到 Web 应用程序中,评估其在真实世界中的能力和用户体验。
Oct, 2023
本研究从网络结构、训练策略和摘要生成算法三个方面全面综述了不同的 seq2seq 模型用于文本摘要生成的研究,并提出了一个名为 NATS 的开源工具包进行研究,对 CNN / Daily Mail 数据集进行了广泛的实验检验,在 Newsroom 和 Bytecup 数据集上测试了两个模型。
Dec, 2018