乌尔都语的抽象摘要生成
本篇论文中,采用了 GRU-based encoder 和 Bahdanau attention mechanism 对英语文本进行了自动摘要,使用 News-summary 数据集进行训练,其输出表现优异,可以用作报纸头条。
Feb, 2023
该研究提出了一种新的解码器,通过条件调整文本和文档的潜在主题来生成摘要,使用 LDA 等主题模型揭示了更多的全局语义信息,使解码器能够访问文本语料库级别的词共现统计信息,实验表明,与现有模型相比,该方法能显著提高 ROUGE 分数。
Aug, 2019
本文提出两个方法以弥补 Transformer-based summarization 模型在内容选择方面表现不佳和训练策略效率不高的缺陷,使得模型可以更好的理解要点,同时引入课程学习的方法提高了训练速度和质量,并用 Reddit TIFU 数据集和其他三个跨领域总结测量我们的模型的有效性,同时进行了人类评估表明所提出的方法在流畅性、信息量和整体质量等质量标准上具有良好的效果。
Feb, 2023
利用自注意力变换器模型(mBERT, mT5)以及构建新的基准数据集(76.5k 的文章摘要对),在资源有限的语言乌尔都语中,提出了一个自适应低资源摘要方法,能够有效地捕捉低资源语言的上下文信息并取得与英文高资源语言中最先进模型相媲美的评估结果。
Oct, 2023
该研究使用注意力编码 - 解码循环神经网络模型抽象化文本摘要,并在两个不同的语料库上展示其实现最先进的性能。同时,该研究还提出了几种解决文摘中的关键问题的新模型,比如建模关键词、捕捉句子到单词结构的层次以及提取训练时很少出现的单词等。此外,研究还建立了一个多句子的文摘数据集,以便后续的新研究能建立性能基准。
Feb, 2016
本研究展示了 BERT 如何在文本摘要中有用地应用,并提出了一种通用的框架,包括抽取式模型和生成式模型。在此框架下,我们引入了一种新的基于 BERT 的文档级编码器,该编码器能够表达文档的语义并获取其句子的表示,通过堆叠多个 Transformer 层来构建我们的抽取式模型,对于生成式摘要,我们提出一种新的微调策略,以解决编码器和解码器之间的不匹配问题,并演示了两阶段微调方法可以进一步提高生成摘要的质量。在三个数据集上的实验表明,我们的模型不仅在抽取式设置下,在生成式设置下也达到了最先进的水平。
Aug, 2019
提出了一种基于序列到序列编码器 - 解码器模型并配备深层递归生成解码器的抽象文本摘要框架,通过利用循环潜在随机模型来学习目标摘要中隐含的潜在结构信息以提高摘要质量;同时应用神经变分推断来解决循环潜在变量的不可解后验推断问题,在生成潜在变量和判别性确定状态的基础上生成抽象摘要,实验结果表明,该方法优于现有最先进的方法。
Aug, 2017
Transum 是一种多任务学习框架,可以将真实数据及伪造数据结合起来用于神经编码器 - 解码器的训练,达到在汉英和阿拉伯英文摘要、中英、阿拉伯英翻译任务中均获得最佳 ROUGE 分的效果,此外还对机器翻译任务有积极的影响。
Oct, 2020
本研究初步探讨一种新的方法,利用最大边际相关性方法从多文档输入中选择代表性句子,并利用抽象的编码器 - 解码器模型将不同的句子融合成概括性摘要。该适应方法自身鲁棒性良好且不需要训练数据。与自动指标和人工评估员评估的最先进的抽取和抽象方法相比,我们的系统表现出色。
Aug, 2018