基于 Transformer 模型的新闻标题生成技术进展
使用最新的 Universal Transformer architecture 和 byte-pair encoding 技巧,对新闻标题生成任务进行了优化,取得了新的最佳 ROUGE-L F1 分数 24.84 和 ROUGE-2 F1 分数 13.48,并提出了新的 RIA 语料库并在其上达到 ROUGE-L F1 分数 36.81 和 ROUGE-2 F1 分数 22.15。
Jan, 2019
本研究展示了 BERT 如何在文本摘要中有用地应用,并提出了一种通用的框架,包括抽取式模型和生成式模型。在此框架下,我们引入了一种新的基于 BERT 的文档级编码器,该编码器能够表达文档的语义并获取其句子的表示,通过堆叠多个 Transformer 层来构建我们的抽取式模型,对于生成式摘要,我们提出一种新的微调策略,以解决编码器和解码器之间的不匹配问题,并演示了两阶段微调方法可以进一步提高生成摘要的质量。在三个数据集上的实验表明,我们的模型不仅在抽取式设置下,在生成式设置下也达到了最先进的水平。
Aug, 2019
本文提出了一种利用新闻报道中引文偏见进行先训练的方法,以预测文章中的前导句。作者把这种方法应用到 BART 和 T5 模型中,为领域适应打下基础,并通过六个基准数据集的实验表明,这种方法可以显著提高摘要质量,取得了零调整的新闻摘要的最新成果。
Dec, 2019
本文探讨使用预训练的 Transformer 语言模型来进行文本摘要的实现,提出了基于源嵌入和领域自适应训练的方法,并在三个摘要数据集上进行了测试,并在其中两个数据集上取得了新的最佳表现。结果表明,该方法能够产生更专注的摘要,并且对于更抽象的数据集表现得更加明显。
Jun, 2019
该研究探索了 transformer 模型,发现 ALBERT 在检测印尼语假新闻方面表现最佳
Aug, 2023
利用自注意力变换器模型(mBERT, mT5)以及构建新的基准数据集(76.5k 的文章摘要对),在资源有限的语言乌尔都语中,提出了一个自适应低资源摘要方法,能够有效地捕捉低资源语言的上下文信息并取得与英文高资源语言中最先进模型相媲美的评估结果。
Oct, 2023
本文提出了 BERTSUM,即 BERT 的摘要变体,通过在 CNN / Dailymail 数据集上的评估证明其在提取性摘要方面超越了现有的最佳系统。
Mar, 2019
本文提出了一种基于预训练的编码器 - 解码器框架,使用 BERT 编码输入序列来生成输出序列,采用 Transformer-based 解码器生成草稿输出序列,并将其与原始输入序列结合使用,使用 BERT 生成的草稿表示来预测遮罩位置的优化单词,进而在文本摘要任务上实现了最新的技术水平。
Feb, 2019
本研究探讨了采用不同类型的最先进的转换器模型对文本分类的性能,发现其中 RoBERTa 模型在测试数据集上表现最佳,可用于文本中灾难的检测。此外,我们发现预处理技术,词汇表中单词的性质,不平衡标签和模型参数对学习算法的性能产生影响。
Mar, 2023