抽象文本摘要中的命名实体处理
本文通过对 mBART 和 BertSumAbs 两种基于预训练 Transformer 模型的微调,在俄语新闻 RIA 和 Lenta 数据集上获得了新的最优结果,其中 BertSumAbs 分别将 ROUGE 提高了 2.9 和 2.0 个百分点。
Jul, 2020
该论文提出了三个预训练目标,并基于未标记的文本对 Seq2Seq based abstractive summarization model 进行预训练,从而在有限的监督 summarization data 上改进其性能,这三个目标与 abstractive document summarization task 有密切关联。实验结果表明,这三个目标均能改进模型性能,且仅使用 19GB 的文本进行预训练即可与使用大规模数据集预训练的模型达到可比较的效果。
Apr, 2020
提出了一种新的度量生成摘要与原文事实一致性的方法,并展示了通过简单的过滤训练数据可减少实体幻觉问题。此外,还提出了一个摘要值得关注的实体分类任务及联合实体和摘要生成方法,并在实体层面的指标上得到了进一步的改进。
Feb, 2021
本文提出了一种基于实体驱动事实感知的框架,用于训练端到端的基于 Transformer 的编码 - 解码模型以摘要生物医学文章。在使用知识库中的命名实体和事实进行指导的情况下,EFAS 能够实现比标准源文档到摘要设置更准确的实体级事实准确性、N-gram 新颖性和语义等价性,而 ROUGE 指标的表现相当。
Mar, 2022
本研究展示了 BERT 如何在文本摘要中有用地应用,并提出了一种通用的框架,包括抽取式模型和生成式模型。在此框架下,我们引入了一种新的基于 BERT 的文档级编码器,该编码器能够表达文档的语义并获取其句子的表示,通过堆叠多个 Transformer 层来构建我们的抽取式模型,对于生成式摘要,我们提出一种新的微调策略,以解决编码器和解码器之间的不匹配问题,并演示了两阶段微调方法可以进一步提高生成摘要的质量。在三个数据集上的实验表明,我们的模型不仅在抽取式设置下,在生成式设置下也达到了最先进的水平。
Aug, 2019
本文提出了利用实体链策略来帮助生成摘要的方法,通过在目标摘要前附加实体链从而生成更为准确与可控制的摘要,该方法在多个数据集上得到应用,并在 faithfulness 方面表现优异。
Apr, 2021
使用抽象文本摘要作为增强方法,着重于在文档级事件检测上弥合浅层模型和深层模型之间的性能差距,使用 RoBERTa-base 和线性 SVM 对分类进行实验,结果表明,文档标题的使用不但能够增强分类性能,还能提高 RoBERTa 的 F1 分数。
May, 2023
本文介绍一种使用预处理的深度语境化文本编码器 BERT 来改善自然语言任务,包括抽象概括,并提出一种自我监督的方法来弥补对话概括模型的缺陷。在共享的编码器 - 解码器架构上构建和微调抽象对话概括模型,并在最近引入的 SAMSum 语料库中经验性地评估,证明我们的方法在抽象概括中做出了改进。
Sep, 2022
本文研究如何训练针对文本文档中关键短语的任务特定语言模型,通过使用不同的掩码策略在区分性和生成性环境下对预训练变压器语言模型进行实验,并提出新的预训练目标 - 关键短语边界填充替换(KBIR),用于关键短语提取,与现有最佳方法相比,能够提高 8.16 个 F1 分数;此外,还提出了适用于 BART 的新的预训练设置 - KeyBART,能够在 CatSeq 格式中重现与输入文本相关的关键短语,用于关键短语生成,并能比现有最佳方法提高 4.33 个 F1M 分数。最后,对预训练语言模型进行细微调整,用于命名实体识别,问答,关系抽取,编写摘要等,达到了与现有最佳方法可比的性能,表明学习关键短语的丰富表达对于许多其他基础的自然语言处理任务是有益的。
Dec, 2021