使用预训练模型的抽象文本摘要分析
本文探讨基于预训练语言模型的摘要生成模型。通过与基准数据集 CNN/DM 的参考摘要的人工评估比较,发现相对于参考摘要而言,由最新的语言模型 BART 生成更高分的摘要。我们对 CNN/DM 数据集内在特性、预训练语言模型的进展及其对训练数据的泛化能力进行了分析,最终提出了对于提高抽象化摘要生成的学习方法的思考。
Feb, 2020
本文探讨如何在低资源情况下,使用深度神经网络等技术进行长篇法律文件的自动摘要,本文提出了一种基于 GPT-2 的算法,基于语言模型的困惑度,识别出最具有表现力的句子,在提取摘要时提供有效支持,并且该方法胜过了全球其他对手的显著度检测基线。
Mar, 2021
本研究对多种 LSTM 和预训练模型(T5,Pegasus,BART 和 BART-Large)在开源数据集(Xsum,CNN/Daily Mail,亚马逊细粒度食品评论和新闻摘要)和简历数据集上进行了评估,其中 BART-Large 模型经过简历数据集微调后表现最佳,本研究的主要目标是对简历文本进行分类。
Jun, 2023
本研究论文针对新闻文本自动摘要的抽取和生成方法进行了广泛的比较评估,重点分析了 ROUGE 分数。研究使用 CNN-Daily Mail 数据集,包括新闻文章和人工生成的参考摘要。通过 ROUGE 分数评估生成摘要的效果和质量,再将表现最佳的模型整合到 Web 应用程序中,评估其在真实世界中的能力和用户体验。
Oct, 2023
这篇研究论文使用了各种不同的大型语言模型,包括 MPT-7b-instruct,falcon-7b-instruct 和 OpenAI ChatGPT text-davinci-003 模型,通过不同的超参数对生成的摘要进行评估,并发现 text-davinci-003 模型的表现优于其他模型。该研究还分析了 CNN Daily Mail 和 XSum 两个不同的数据集,旨在提供对大型语言模型在不同数据集上应用时性能的全面理解。这项工作为对 NLP 领域的研究人员和从业者提供了有价值的见解,同时也为开发应对各种业务挑战的高级生成式人工智能应用奠定了基础。
Oct, 2023
本文提出了一种基于查询的文章摘要生成模型,使用新闻文章摘要数据集训练了指针生成模型,通过与参考摘要的相似度评估生成的摘要,结果表明可以构建类似于抽象式摘要的神经网络模型,使用查询生成有针对性的摘要。
Dec, 2017
本文系统总结了使用预训练语言模型( Pre-trained language models)的生物医学文本摘要的最新进展、挑战问题和未来方向,帮助我们更好地理解该领域的最新进展和使用预训练语言模型在生物信息学中的应用。
Apr, 2023
本文详细介绍了文本摘要的各种方法,包括提取和抽象两种途径,评估指标、基准数据集与未来的研究展望,并讨论了生成摘要的不同评估方法与相关研究中可能出现的挑战和研究机遇。
Mar, 2022
本文综述了近期在基于神经网络的自动文本摘要中的十种最先进的神经网络模型,其中包括五种生成式模型和五种抽取式模型,并讨论了应用于摘要任务的相关技术和未来研究的有前途的方向。
Mar, 2018
本研究评估了德语抽象文本摘要的特定现状,并调查现实情形下为什么有效的抽象文本摘要解决方案在工业界仍然缺失。我们的重点是分析训练资源和公开可用的摘要系统,并发现现有的数据集和系统存在极大的缺陷和评估偏差。此外,我们发现现有的系统经常不能与简单的基准线进行比较,并且忽略了更有效和高效的摘要方法。
Jan, 2023