- ACL抽象摘要的来源识别
通过分析源句子,我们研究了神经生成摘要模型是如何将源信息转化为摘要的,包括对参考摘要和 PEGASUS 生成的系统摘要进行源句子注释,并比较了多种自动源句子检测方法以建立强大基线模型。实验结果表明,对于高度抽象的摘要,基于困惑度的方法表现良 - 面向低资源抽象摘要生成的概览偏好分解技术
通过预训练语言模型建立的元学习框架,采用参数调节分解内容和偏好,并提出一种解码方法,可在只有少量的训练数据的情况下获得极好的效果,大幅提高了摘要生成质量。
- 提高抽象化摘要中的忠实性
本研究提出了 Faithfulness Enhanced Summarization (FES) 模型,该模型使用 question-answering (QA) 技术检查 encoder 是否完全理解输入文档,并回答关键信息的问题,并引入 - ACL通过生成文档级别 NLI 实例识别摘要中的事实不一致性
本文研究了神经抽象摘要模型在生成的摘要与其原文存在事实上的不一致可能性,提出使用 NLI 模型进行辨别以及如何借助数据生成来提升辨别效果,最终使用 Falsesum 数据集完成了四个基准测试并有所提升。
- ACL通过切除和归因来分解抽象摘要模型的生成模式
本文提出了一种两步解释自然语言生成的方法,通过对自然语言生成器生成标注的决策进行分类并解释,以确定生成指定层级的下一个标注所依赖的输入内容。
- ACL通过对比候选生成和选择提高抽象摘要的忠实度
通过对替身候选生成和选择的研究,我们提出了一个模型无关的后处理技术来修正当前神经抽象摘要生成模型中常见的不忠于原始内容的摘要幻觉现象,我们学习了一个判别式修正模型并证明,通过替代抽象式中的具名实体和数量标识来代替同源文本中语义相似类型的实体 - AAAI低资源抽象化摘要元转移学习
本文提出了一种方法,利用大型预训练模型和多样的现有语料库,解决低资源抽象摘要化问题,在各种写作风格和形式的摘要语料库上实验证明,我们的方法仅使用 0.7%的可训练参数与以前的工作相比,在低资源情况下实现了 6 个语料库的最新技术水平。
- 摘要生成模型的事实错误更正
本研究提出了一种后处理校正模块来解决神经抽象汇总系统的事实一致性问题,该模块采用预训练的神经校正模型,能够识别和修正所生成的摘要中的事实错误,并在 CNN / DailyMail 数据集上表现出比先前模型更好的事实一致性的评估结果。
- ACLGSum: 一种用于引导神经抽象摘要的通用框架
本文提出了一个通用可扩展的引导式摘要框架(GSum),可以有效地将不同种类的外部引导作为输入,通过实验表明了该模型在使用突出显示的句子作为引导时,在 4 个流行的摘要数据集上实现了 ROUGE 的最优性能,同时我们还展示了我们的引导模型可以 - EMNLP抽象文本摘要的多因素校正
本论文提出了一种名为 Span-Fact 的技术,通过单一或多重遮盖策略,利用问题解答模型从系统生成的摘要中选择语义上一致且保留形式结构的实体,从而提高了系统生成的摘要的事实一致性和质量。
- ACLFEQA: 抽象摘要中忠实度评估的问答评估框架
该研究提出了一种基于自动问答的 faithfulness 评估度量方式(FEQA),并发现当前的神经抽象概括模型存在抽象度和忠实度的权衡关系。
- 基於 Transformer 語言模型的抽取式和生成式神經文件摘要
本文采用神经抽象总结的方法来产生长文档的抽象总结,该方法使用一个简单的抽取步骤来生成一个摘要,然后将其用作相关信息的转换器语言模型的条件,然后生成一个摘要。我们展示了这个抽取步骤显著地改善了总结结果,而且这种方法产生的抽象总结比以前采用复制 - AAAI将读者评论纳入抽象文本摘要
本文介绍了一种采用读者评论辅助生成 “主要方面” 摘要的方法 —— 读者感知的生成式摘要。使用对抗思想和神经网络框架,作者提出了一个名为 RASG 的模型,该模型克服了评论的非正式和嘈杂的挑战,并取得了表现优异的成果。
- 基于句子门控模型和对话行为优化的抽象化对话摘要
本论文旨在通过引入对话行为,设计一种基于句子门控机制的神经摘要模型,以更好地模拟对话行为和摘要之间的关系,从而提高其在 AMI 会议语料库上的性能表现。实验结果表明,所提出的模型相对于现有的基线表现有很大改善,突显出对话行为所提供的交互信号 - ACL抽象式摘要全球编码
本研究提出了一种全局编码框架,用于控制源上下文的全局信息并降低了重复现象,经过对 LCSTS 和英文 Gigaword 的评估,该模型优于基线模型。
- 基于神经网络的抽象式多文档摘要生成方法研究
本文针对多文档自动摘要问题,提出了一个基于小型多文档训练集的神经抽象模型 fine-tuning 方法,实证结果在两个基准 DUC 数据集上表现优异。
- ACL一种论述感知的长文本抽象摘要关注模型
本文提出了一种针对单个较长文档(如研究论文)进行抽象概括的模型,采用新的分层编码器对文章进行语篇结构建模,并运用有意识的编码器生成摘要,实验证明该模型显著优于现有模型。
- 基于 Actor-Critic 的摘要生成训练框架
介绍使用强化学习的演员 - 评论家框架作为神经网络摘要生成模型培训框架,框架中包括政策网络、二进制分类器、修改的最大近似似然度量和参数学习方法,该框架达到了比现有最优秀方法更好的效果。
- MM领域适应效应对神经抽象摘要的试点研究
研究了神经抽象摘要的领域适应问题,发现预训练模型利用提取式摘要可以提高摘要质量,同时结合域内和域外数据可以获得更好的摘要效果,但对于目标领域的风格要求域内数据。