面向抽象化多文档新闻摘要的无监督遮蔽目标
提出了一种新的无监督抽象摘要方法,利用覆盖率和流畅性最大化的组合来进行句子长度控制,通过遮盖原始文档中关键词并将其填充进生成的摘要中来激励包含原始文档中的关键词,利用覆盖率模型和流畅性模型进行无监督训练,可以在流行的新闻摘要数据集上优于以前的无监督方法,同时接近有竞争力的监督方法。我们的模型比以前的工作得到更高程度的信息提取,复制的段落大约是先前的两倍短,并且可以自主学习压缩和合并句子。
May, 2021
开发了一种基于抽象的总结框架,适用于多个异构文档,该框架独立于标记数据。 与现有的多文件总结方法不同,我们的框架处理讲述不同故事的文档,而不是同一主题的文档。 最后,我们基于 CNN / Daily Mail 和 NewsRoom 数据集构建了总共十二个数据集变体,其中每个文档组都包含大量且多样化的文档,以评估我们的模型与其他基线系统的性能。 我们的实验表明,我们的框架在这种更通用的情况下胜过了现有的最先进方法。
May, 2022
本文介绍了一种自我训练的方法,使用控制代码通过 Transformer 架构将多条评论进行无监督抽象摘要,并通过人工评估表明,该方法生成的摘要具有更高的质量和相关性。
Apr, 2020
该论文提出了三个预训练目标,并基于未标记的文本对 Seq2Seq based abstractive summarization model 进行预训练,从而在有限的监督 summarization data 上改进其性能,这三个目标与 abstractive document summarization task 有密切关联。实验结果表明,这三个目标均能改进模型性能,且仅使用 19GB 的文本进行预训练即可与使用大规模数据集预训练的模型达到可比较的效果。
Apr, 2020
本文介绍了一种基于🈚️ground truth summaries 的情况下,利用文档创建合成数据集、引入多种噪声生成函数以及学习生成原始评论的摘要模型的方法,该方法比抽取式和生成式基线模型都有更好的效果。
Apr, 2020
本研究提出了一种简单而有效的关注头屏蔽技术,应用于编码器 - 解码器注意力以确定推断时显着的内容,对三个摘要数据集进行了演示,证明了其在数据效率和性能上的优越性。
Apr, 2021
我们提出了一种新颖的基于图形的框架,用于摘要会议演讲,完全不需要监督和任何注释。我们的工作结合了多种最近的方法的优点,同时解决了它们的弱点。此外,我们利用最近在 NLP 中应用的字嵌入和图形退化的进展,考虑外部语义知识,并设计了自定义的多样性和信息量度量。在 AMI 和 ICSI 语料库上的实验表明,我们的系统改进了现有技术水平。代码和数据可公开获取,我们的系统可以交互式测试。
May, 2018
本文提出了一种基于神经网络的无监督自动编码器架构,用于进行商品评论的抽象摘要,通过自动化指标和人类评估表明,该模型生成的摘要高度抽象、流畅、相关,并代表了输入评论的情感倾向。
Oct, 2018
本文提出了一种新的基于 Transformer 的方法,称为 Absformer,旨在针对没有提供摘要总结的文档进行无监督的抽象式多文档摘要生成,并在现实世界的三个不同领域的数据集上进行了评估,结果表明该方法在评价指标方面取得了实质性的提高,并且具有从不同领域的数据集中泛化的优势。
Jun, 2023
本文提出通过辅助任务来改善多模态主动摘要中的视觉特征质量,包括视觉到摘要任务和掩蔽图像建模任务,从而优化多模态主动摘要模型。实验结果在 44 种语言中验证了该方法的有效性和优越性。
Dec, 2022