自动新闻摘要
本文探讨基于预训练语言模型的摘要生成模型。通过与基准数据集 CNN/DM 的参考摘要的人工评估比较,发现相对于参考摘要而言,由最新的语言模型 BART 生成更高分的摘要。我们对 CNN/DM 数据集内在特性、预训练语言模型的进展及其对训练数据的泛化能力进行了分析,最终提出了对于提高抽象化摘要生成的学习方法的思考。
Feb, 2020
本文综述了近期在基于神经网络的自动文本摘要中的十种最先进的神经网络模型,其中包括五种生成式模型和五种抽取式模型,并讨论了应用于摘要任务的相关技术和未来研究的有前途的方向。
Mar, 2018
提出了一种全新的编辑网络的思想 - 一种混合抽取 - 生成式摘要的方法,应用于给定抽取的句子序列的后处理步骤中。我们的网络试图模仿人类编辑在摘要过程中的决策过程。使用 CNN / DailyMail 数据集,我们演示了我们的方法相对于最先进的单一抽取或生成式基准方法的有效性,进一步提出了一种基于新颖的软标签方法的 “编辑器” 的有效培训方法。
Feb, 2019
本文是一篇关于使用自然语言处理技术生成简化版摘要的研究综述,发现基于 transformer 的方法如 BERT 和 PEGASUS 在生成 lay text summarisation 方面相对优秀,并建议采用抽取式和生成式相结合的混合方法,并开发一些新的评估指标以确保 lay summary 更易读。
Mar, 2023
本文详细介绍了文本摘要的各种方法,包括提取和抽象两种途径,评估指标、基准数据集与未来的研究展望,并讨论了生成摘要的不同评估方法与相关研究中可能出现的挑战和研究机遇。
Mar, 2022
通过使用多维度质量度量标准(MQM),我们手动量化了 10 种代表性汇总模型中 8 种主要错误来源,发现在相似设置下,提取式汇总器总体上比其抽象式汇总器表现更好,尤其是在忠实度和事实一致性方面。同时,预训练技术,特别是序列到序列的预训练技术,对于提高文本汇总效果非常有效,其中 BART 效果最好。
Oct, 2020
提出了一种用于单文档大意提取的全新算法,能够通过强化学习目标全局优化 ROUGE 评估指标,并在 CNN 和 DailyMail 数据集上进行了实验,展示它在人工和自动评估中均优于现有抽取和生成式提取系统的神经大意提取模型。
Feb, 2018
本文介绍了一种新的数据集,用于总结计算机科学出版物,展示了利用神经句子编码和传统的总结功能来开发模型的方式,并表明即使在传统的科学领域中,对句子的编码以及他们的本地和全局背景进行编码的模型也有很好的性能,并实现了明显优于已经建立的基准方法的结果。
Jun, 2017
本文探讨了利用 Transformer-based 系统概括多领域科学研究论文的问题,并设计了两种不同类型的概述手段,即 LaySumm 和 LongSumm,使用 ROUGE 指标有效评估了本文系统的优越性。
Jan, 2021
本文采用神经抽象总结的方法来产生长文档的抽象总结,该方法使用一个简单的抽取步骤来生成一个摘要,然后将其用作相关信息的转换器语言模型的条件,然后生成一个摘要。我们展示了这个抽取步骤显著地改善了总结结果,而且这种方法产生的抽象总结比以前采用复制机制的工作能够实现更高的浸润得分。
Sep, 2019