GreekT5: 一系列希腊序列到序列模型用于新闻摘要
该研究提出了一个新颖的抽象式单文档文本摘要框架,融合了结构、语义和基于神经网络的方法,通过结合机器学习和基于知识的技术实现了一种统一的方法。实验证明了该框架在处理罕见和未登录词方面的显著改进,优于现有的深度学习技术。
Apr, 2024
在信息时代,人们阅读冗长的新闻文章的时间越来越少,提供简洁的信息摘要变得比以往任何时候都更为重要。本文旨在改进现有的架构和模型,针对抽象文本摘要进行微调超参数,并尝试特定的编码器 - 解码器组合,以提高摘要生成的效果。
Mar, 2024
本研究从网络结构、训练策略和摘要生成算法三个方面全面综述了不同的 seq2seq 模型用于文本摘要生成的研究,并提出了一个名为 NATS 的开源工具包进行研究,对 CNN / Daily Mail 数据集进行了广泛的实验检验,在 Newsroom 和 Bytecup 数据集上测试了两个模型。
Dec, 2018
本研究对多种 LSTM 和预训练模型(T5,Pegasus,BART 和 BART-Large)在开源数据集(Xsum,CNN/Daily Mail,亚马逊细粒度食品评论和新闻摘要)和简历数据集上进行了评估,其中 BART-Large 模型经过简历数据集微调后表现最佳,本研究的主要目标是对简历文本进行分类。
Jun, 2023
本文综述了近期在基于神经网络的自动文本摘要中的十种最先进的神经网络模型,其中包括五种生成式模型和五种抽取式模型,并讨论了应用于摘要任务的相关技术和未来研究的有前途的方向。
Mar, 2018
本文介绍了文本摘要的两种方法 —— 摘要加工和提纯方法,探讨了深度学习在文本摘要中的应用,深入分析了计划采样模型在如何进行摘要加工的过程中的作用。同时,本文将这种方法应用到非洲最广泛使用的语言之一 —— 阿姆哈拉语,并努力为非洲 NLP 社区带来一流的深度学习结构。
Mar, 2020
本篇论文介绍了 GreekBART,这是第一个基于 BART-base 架构的 Seq2Seq 模型,经过大规模希腊语语料库的预训练。我们评估并比较了 GreekBART 与 BART-random、Greek-BERT 和 XLM-R 在各种区分性任务上的表现,并研究了其在两个来自 GreekSUM 的 Greek 语言生成任务中的性能。模型、代码和数据集将公开提供。
Apr, 2023
本文研究使用 Transformer 技术来提高自动文本摘要的效率,提出基于检索的方法,可以降低处理整个文档的成本。实验结果表明,相较于基线,该方法的存储占用更少,且保证了文本摘要的可靠性。
Dec, 2022
该研究使用注意力编码 - 解码循环神经网络模型抽象化文本摘要,并在两个不同的语料库上展示其实现最先进的性能。同时,该研究还提出了几种解决文摘中的关键问题的新模型,比如建模关键词、捕捉句子到单词结构的层次以及提取训练时很少出现的单词等。此外,研究还建立了一个多句子的文摘数据集,以便后续的新研究能建立性能基准。
Feb, 2016