通过摘要对偶和显式大纲控制增强生成
本文针对抽象对话摘要的质量和粒度控制问题,提出了一种包含两个主要组成部分和阶段的模型,实现了基于伪标注疑问代词类别和基于组成句法分析提取关键词短语生成初步摘要,并通过自动确定或控制源文本中不同文本片段预测和突出显示给定对话的生成摘要句子数量。在最大的对话摘要语料库 SAMSum 上表现出优越性能,达到了 50.79 的 ROUGE-L 评分,并展示了竞争性高的人类评估结果和可控制的效果。
May, 2021
提出了一种新的生成长文本的方法 SOE,它采用了概述、大纲和扩展的方法来为每个段落生成高效的文本,并通过重构策略无监督地提取每个段落的摘要以避免繁琐的总结过程。
Oct, 2020
本文提出了一个文本编辑器,使用自动文本摘要为用户提供不断更新的逐段摘要,以边缘注释的方式帮助用户规划、结构化和反思写作过程。通过两个用户研究,作者发现这个系统为用户提供了一个外部的视角来帮助他们修改段落的内容和范围,并且帮助用户快速了解文本的总体情况和开发一些集成自动摘要中得到的见解的策略。通过探究和强调设计 AI 工具以帮助写作的价值,这项工作突显了自然语言处理 (NLP) 能够超越直接的文本生成和纠正。
Aug, 2022
本文提出了一个通用可扩展的引导式摘要框架(GSum),可以有效地将不同种类的外部引导作为输入,通过实验表明了该模型在使用突出显示的句子作为引导时,在 4 个流行的摘要数据集上实现了 ROUGE 的最优性能,同时我们还展示了我们的引导模型可以生成更忠实的摘要,并展示了不同类型的引导所生成的不同摘要,为学习模型提供了一定程度的可控性。
Oct, 2020
本研究介绍并应用了一种神经主题模型以及归一化流以捕捉文档的全局语义,并将其整合到摘要模型中,以解决 Transformer-based 模型在摘要生成中存在的短程依赖问题,同时在五个常用文本摘要数据集上表现优于现有方法。
Sep, 2021
该论文提出了一种能够精确控制文本长度的文本生成框架,可以生成指定数量的词语或句子的摘要,且在维持或提高文本质量的同时,通过联合训练模型预测长度,实现生成最佳长度的摘要。作者对该框架在 CNNDM 数据集上进行了评估,结果表明其性能优于现有方法。
May, 2023
本文介绍了一种自我训练的方法,使用控制代码通过 Transformer 架构将多条评论进行无监督抽象摘要,并通过人工评估表明,该方法生成的摘要具有更高的质量和相关性。
Apr, 2020
本文探讨了利用 Transformer-based 系统概括多领域科学研究论文的问题,并设计了两种不同类型的概述手段,即 LaySumm 和 LongSumm,使用 ROUGE 指标有效评估了本文系统的优越性。
Jan, 2021
该研究提出了一个基于自然语言的控制生成任务,可将一系列事实扩展为更长的叙述,并通过引入人类评估指标和大型训练数据集的方法评估了三种方法,证明了自回归的单向语言模型如 GPT2 的生成流畅度更好,但很难遵循所请求的事实,提出了一个基于计划和填空模型的解决方案(使用精细调整的 XLNet),其生成流畅度有竞争力,同时遵循所请求的内容。
Dec, 2020
本文提出了一种摘要框架,通过将目标的所有评论压缩为多个密集向量以代替传统的前置筛选步骤,从而最大化地保留所有信息,进而生成更具信息量的摘要,并且采用零样本技术,能够有效地生成根据用户需求定制的摘要,实验结果表明了该模型在 Rotten Tomatoes 数据集上的优越性能。
Sep, 2019