- SEAL:基于段落的提取 - 抽象长文本摘要
该论文提出了一种基于 Transformer 的模型 SEAL,用于长篇抽象文本摘要,模型具有可解释性,同时可以使用原始文档和摘要提供弱监督学习信号。该模型在现有长篇摘要任务上取得了最佳结果,并在新的数据集 / 任务 Search2Wiki - ICLR阿拉伯文本摘要的 BERT 微调
本文介绍了一种使用 fine-tuning 方法构建阿拉伯语文本摘要模型的方法,并且展示了该模型在抽取式和文本生成式摘要任务中的性能,同时还展示了该模型在多语种语料库上的性能表现。
- ICML使用提取的间隔句子进行摘要式预训练的 PEGASUS
该研究提出了一种新的自监督目标,将重要的句子从输入文档中删除 / 掩盖,并从剩余的句子中生成一个输出序列,类似于抽取式摘要,PEGASUS 模型在 12 个文本摘要任务中均取得了最先进的 ROUGE 得分,并在只有 1000 个样例的 6 - SummAE: 使用长度无关自编码器进行零样本抽象文本摘要
本文提出一种基于神经网络的端到端模型,实现了零样本抽象文本摘要,并基于 ROCStories 数据集引入了基准任务 ROCSumm。模型 SummAE 由去噪自编码器构成,通过将句子和段落嵌入到一个共同的空间中来生成段落的摘要。实验表明该模 - ACL基于示例自适应解码的文本生成
我们提出了一种新颖的有条件文本生成模型,通过编码 - 解码范式,在抽象文本摘要和数据到文本生成方面取得了强大的性能并超越了可比较的基线模型。
- ACL三段式文本摘要的规则
该论文提出了一种基于神经网络的文本摘要模型,旨在解决现有模型未能显式考虑信息结构的问题,并控制摘要信息结构来提高总体摘要表现,实验结果证明该模型的有效性。
- 文本摘要中的抽象化改进
提出使用上下文相关网络和预训练的语言模型来提高抽象文本摘要的生成水平和使用新颖度度量来优化生成的摘要,从而实现比现有方法更高水平的摘要生成。
- 基于深度强化学习的序列到序列模型
本文介绍最近相结合的 seq2seq,深度神经网络和加强学习模型,考虑如何在决策制定的 RL 方法中利用序列到序列模型的长期记忆能力来解决复杂的问题,提出并探讨 RL 方法解决序列到序列模型领域常见的曝光偏差而且在训练与测试的指标上也不一致 - ACL自编码器作为助理监督器:改进中文社交媒体文本摘要的文本表示
本研究针对社交媒体长且嘈杂的内容难以准确表达的问题,使用自编码器协助训练 Seq2Seq 模型,通过监督源内容与摘要的表征学习,实现抽象文本摘要生成并在基准数据集上取得了最先进的性能。
- 为提高语义一致性,正则化中国社交媒体抽象文本摘要的输出分布
本文探讨了抽象文本摘要中生成内容与原文义不相符的问题,并提出了以正则化为基础的序列到序列模型和实用人工评估方法以解决问题。实验结果表明,该方法在提高人工评估的语义一致性方面比以前的模型有效。
- ACL基于关注要点和蕴含的多目标增强摘要
通过强化学习方法,采用 ROUGESal 和 Entail 两种新的奖励函数优化传统指标 ROUGE,实现多重奖励同时优化的方式来提高摘要生成的效果。实验证明,该方法在 CNN/Daily Mail 数据集上达到了新的最高性能水平,并在测试 - 混合词语 - 字符方法的自动摘要生成
本文提出了一种混合字词方法(HWC)来进行汉语文本摘要,其性能在 LCSTS 数据集上领先于现有方法,该方法同时保留了基于字和基于词表示的优点。此外,我们发现了 LCSTS 数据集中的问题并提供了一个脚本来创建一个经过清理的数据集。
- AAAI生成对抗网络用于抽象文本摘要
本文提出了一种针对抽象文本摘要的对抗性过程,在其中同时训练了生成模型和判别模型,并使用增强学习构建了生成器,该生成器可以将原始文本作为输入并预测抽象摘要。我们还构建了一个判别器来区分生成的摘要和真实值。经过广泛的实验证明,我们的模型在 CN - EMNLP深度循环生成解码器用于抽象文本摘要
提出了一种基于序列到序列编码器 - 解码器模型并配备深层递归生成解码器的抽象文本摘要框架,通过利用循环潜在随机模型来学习目标摘要中隐含的潜在结构信息以提高摘要质量;同时应用神经变分推断来解决循环潜在变量的不可解后验推断问题,在生成潜在变量和 - ACL神经序列预测中的生成桥接网络
本文提出了一种新的序列预测模型 —— 生成式桥接网络 (GBN),GBN 引入了一个桥接模块来辅助生成模型的训练,将点预测扩展到一个基于条件概率的桥接分布上,并最小化生成模型与桥接分布的 KL 散度,结果表明,针对语言模型、抽象文本摘要等任 - 利用指针生成网络进行摘要生成
本文提出了一种新的架构,通过使用混合指针生成网络和覆盖机制以增强标准的序列到序列注意模型来解决神经序列到序列模型不精确复制信息和重复问题,该模型在 CNN/Daily Mail 摘要任务上表现优异。
- 使用序列到序列 RNN 及其扩展进行抽象文本摘要
该研究使用注意力编码 - 解码循环神经网络模型抽象化文本摘要,并在两个不同的语料库上展示其实现最先进的性能。同时,该研究还提出了几种解决文摘中的关键问题的新模型,比如建模关键词、捕捉句子到单词结构的层次以及提取训练时很少出现的单词等。此外,