抽象式摘要全球编码
本研究提出了一种选择性编码模型来扩展序列到序列框架,以实现抽象句子摘要。该模型通过句子编码器、选择门网络和配备注意力的解码器构成。我们在英语 Gigaword、DUC 2004 和 MSR 摘要句子摘要数据集上评估了我们的模型。实验结果表明,所提出的选择性编码模型优于现有的基线模型。
Apr, 2017
该研究提出了一个新颖的抽象式单文档文本摘要框架,融合了结构、语义和基于神经网络的方法,通过结合机器学习和基于知识的技术实现了一种统一的方法。实验证明了该框架在处理罕见和未登录词方面的显著改进,优于现有的深度学习技术。
Apr, 2024
本研究介绍并应用了一种神经主题模型以及归一化流以捕捉文档的全局语义,并将其整合到摘要模型中,以解决 Transformer-based 模型在摘要生成中存在的短程依赖问题,同时在五个常用文本摘要数据集上表现优于现有方法。
Sep, 2021
通过将序列编码器与图形成分扩展,我们开发了一个框架,旨在处理文本等弱结构化数据中的长距离关系,从而实现对序列的概括。在广泛的评估中,我们展示了这种混合模型的优越性。
Nov, 2018
本文介绍了一种基于 MTGRU 和时间层次结构的 seq2seq 模型,旨在解决科学文章摘要的抽象化问题,实验结果表明,与传统 RNN 编码器 - 解码器相比,该模型具有更快的训练速度和更好的性能表现,同时时间层次结构有助于改善 seq2seq 模型对于复合性的捕捉能力,而不需要高度复杂的建筑层次结构。
Jul, 2016
本文提出了一种新的 encoder-decoder 模型来解决 NLP 中的 sequence to sequence prediction 任务,新模型考虑了整个输入序列并引入复制机制来有效处理小样本集和 OOV 问题。在 Gigaword 数据集和 DUC 竞赛中,该模型的性能超过了现有模型。
Nov, 2016
该研究使用注意力编码 - 解码循环神经网络模型抽象化文本摘要,并在两个不同的语料库上展示其实现最先进的性能。同时,该研究还提出了几种解决文摘中的关键问题的新模型,比如建模关键词、捕捉句子到单词结构的层次以及提取训练时很少出现的单词等。此外,研究还建立了一个多句子的文摘数据集,以便后续的新研究能建立性能基准。
Feb, 2016
本文提出了一种深度学习方法来解决自动摘要任务,通过将主题信息结合到卷积序列到序列 (ConvS2S) 模型中,并使用自举式非监督序列训练 (SCST) 进行优化。通过联合关注主题和单词级别对齐,我们的方法可以通过有偏的概率生成机制改善生成摘要的一致性、多样性和信息量。与 SCST 类似的强化训练直接根据不可微度量 ROUGE 优化所提出的模型,在推理期间也避免了曝光偏差。我们在 Gigaword、DUC-2004 和 LCSTS 数据集上对最先进的方法进行了实验评估。实证结果证明了我们所提出的抽象摘要方法的优越性。
May, 2018
提出了一种基于序列到序列编码器 - 解码器模型并配备深层递归生成解码器的抽象文本摘要框架,通过利用循环潜在随机模型来学习目标摘要中隐含的潜在结构信息以提高摘要质量;同时应用神经变分推断来解决循环潜在变量的不可解后验推断问题,在生成潜在变量和判别性确定状态的基础上生成抽象摘要,实验结果表明,该方法优于现有最先进的方法。
Aug, 2017