独揽大权的模型:斯洛文尼亚摘要生成器排名
本文综述了近期在基于神经网络的自动文本摘要中的十种最先进的神经网络模型,其中包括五种生成式模型和五种抽取式模型,并讨论了应用于摘要任务的相关技术和未来研究的有前途的方向。
Mar, 2018
基于大型语言模型的方法用于评估文本摘要,与人工评估相比,其结果接近,并且比常用的自动度量方法更一致。因此,我们提出了一种利用大型语言模型自动评估和改进文本摘要的框架,具有广泛的关注度。
Jun, 2024
本文提出了一种全面基于数据驱动的方法,利用前馈神经网络进行单一文档摘要方法,并在标准 DUC2002 数据集上进行了模型的训练和评估,其结果与最先进的模型相当。所提出的模型可伸缩,并能够通过将原始文档分成固定大小的部分,递归地将其馈送到网络中来生成任意大小的文档摘要。
Feb, 2018
本文探讨基于预训练语言模型的摘要生成模型。通过与基准数据集 CNN/DM 的参考摘要的人工评估比较,发现相对于参考摘要而言,由最新的语言模型 BART 生成更高分的摘要。我们对 CNN/DM 数据集内在特性、预训练语言模型的进展及其对训练数据的泛化能力进行了分析,最终提出了对于提高抽象化摘要生成的学习方法的思考。
Feb, 2020
提出了一种用于单文档大意提取的全新算法,能够通过强化学习目标全局优化 ROUGE 评估指标,并在 CNN 和 DailyMail 数据集上进行了实验,展示它在人工和自动评估中均优于现有抽取和生成式提取系统的神经大意提取模型。
Feb, 2018
本研究论文针对新闻文本自动摘要的抽取和生成方法进行了广泛的比较评估,重点分析了 ROUGE 分数。研究使用 CNN-Daily Mail 数据集,包括新闻文章和人工生成的参考摘要。通过 ROUGE 分数评估生成摘要的效果和质量,再将表现最佳的模型整合到 Web 应用程序中,评估其在真实世界中的能力和用户体验。
Oct, 2023
本文提出了一种基于联合提取和句法压缩的神经模型用于单文档摘要,该模型选择文档中的句子,通过句法分析识别可能的压缩,并用神经模型评分这些压缩以生成最终的摘要,实验结果表明,该模型在 ROUGE 评估中表现良好,能够达到与最先进系统相当的性能,并且其输出一般保持语法正确。
Feb, 2019
通过使用多维度质量度量标准(MQM),我们手动量化了 10 种代表性汇总模型中 8 种主要错误来源,发现在相似设置下,提取式汇总器总体上比其抽象式汇总器表现更好,尤其是在忠实度和事实一致性方面。同时,预训练技术,特别是序列到序列的预训练技术,对于提高文本汇总效果非常有效,其中 BART 效果最好。
Oct, 2020