通过引入结构因果模型 (SCM) 从而诱导总结数据的潜在因果结构,我们提出了一种因果启发式序列到序列模型 (CI-Seq2Seq) 来学习可以模拟因果因素的因果表示,以引导我们获取总结生成的因果信息。在两个广泛使用的文本总结数据集上的实验结果证明了我们方法的优势。
Aug, 2023
本文提出了一种新的复制框架 SeqCopyNet,它不仅能够复制单个单词,还能够从输入句子中复制序列,实验证明 SeqCopyNet 在句子摘要和问题生成方面表现出色。
Jul, 2018
本文提出了一种新颖的神经网络架构用于抽象概括及句法解析的同时生成摘要,同时还描述了一种新颖的人工评估协议来评估摘要是否符合原始含义,经评估证明该方法在多个摘要数据集上与强基线相比表现出有竞争力的结果。
Nov, 2019
提出了一种基于句法和信息提取的双重注意序列到序列框架,该框架旨在解决抽象汇总中存在的虚假事实问题,并使生成的汇总同时具有信息丰富性和语义准确性。
Nov, 2017
通过学习自单一人类摘要信息,我们提出了一种神经网络摘要模型,该模型可以生成从纯粹提取式到高度生成式的多种摘要假设,并在控制文本复制的同时实现训练和解码阶段内的控制,从而实现了竞争性的结果。
通过分析源句子,我们研究了神经生成摘要模型是如何将源信息转化为摘要的,包括对参考摘要和 PEGASUS 生成的系统摘要进行源句子注释,并比较了多种自动源句子检测方法以建立强大基线模型。实验结果表明,对于高度抽象的摘要,基于困惑度的方法表现良好,而基于相似度的方法在相对抽取性的摘要中表现稳健。
Feb, 2024
在信息时代,人们阅读冗长的新闻文章的时间越来越少,提供简洁的信息摘要变得比以往任何时候都更为重要。本文旨在改进现有的架构和模型,针对抽象文本摘要进行微调超参数,并尝试特定的编码器 - 解码器组合,以提高摘要生成的效果。
Mar, 2024
本研究从网络结构、训练策略和摘要生成算法三个方面全面综述了不同的 seq2seq 模型用于文本摘要生成的研究,并提出了一个名为 NATS 的开源工具包进行研究,对 CNN / Daily Mail 数据集进行了广泛的实验检验,在 Newsroom 和 Bytecup 数据集上测试了两个模型。
Dec, 2018
提出使用上下文相关网络和预训练的语言模型来提高抽象文本摘要的生成水平和使用新颖度度量来优化生成的摘要,从而实现比现有方法更高水平的摘要生成。
Aug, 2018
本文提出了一种基于语义理解的神经生成式摘要模型,通过对显要内容的语义解释学习生成高质量摘要。同时引入一种新的对抗样本评估体制,证明该模型比流行的指针 - 生成式模型更好地识别了离题信息,并且人工评估结果表明本文模型生成的摘要更具信息量和可信度,且冗余度更低。
Oct, 2018