ESA:具有注意力机制的实体摘要
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016
本文研究了使用链接实体以指导神经文本摘要器生成简洁更好摘要的方法,并提出了 Entity2Topic(E2T)方法。通过 E2T 应用于基于 Aufmerksamkeit机制的简单序列到序列模型,在Gigaword和CNN摘要数据集上至少获得2个 ROUGE点的显著性能提升。
Jun, 2018
本文提出了一种基于神经模型的监督式方法NEST,用于在大规模知识图谱中联合编码图结构和文本,并生成高质量多样化的实体摘要,通过采用程序化标注数据进行训练,克服手动标注摘要数据的昂贵问题。研究表明,该方法在两个公共基准测试中明显优于现有技术。
May, 2020
本文介绍了 ASGARD,这是一个新颖的带有图形增强和基于语义驱动奖励的抽象摘要框架,使用双编码器和知识图形提高了生成的摘要的信息性能,并取得了对新闻文本具有竞争力的性能。
May, 2020
本文是第一个系统调查将知识嵌入到文档摘要生成器中的最新方法的论文,现在知识已成为自然语言处理应用程序中的焦点,先前的工作表明,嵌入式知识文档摘要生成器在生成信息、连贯性和事实一致性方面表现卓越,我们进一步研究嵌入深度学习模型的嵌入学习体系结构如何生成嵌入的,最后讨论这个主题的挑战和未来方向。
Apr, 2022
本篇论文提出了一种基于实体的文本摘要方法,采用实体构建句子-实体图,连接知识图谱和图神经网络实现摘要,提高了提取式和生成式基线的性能。
Feb, 2023
通过训练RoBERTa模型确认文本中的命名实体,并使用BART模型重构被遮盖的命名实体,然后在摘要任务上对BART模型进行微调,改进了命名实体的检测准确度和召回率。
Jul, 2023
近年来,深度学习通过能够学习语言数据的复杂表示方式从而在自然语言处理中带来了革命性的变化,深度学习模型广泛应用于提升多种自然语言处理任务的性能。本文综述了近年来流行的文本摘要任务,包括抽取式、生成式、多文档等,并讨论了相关的深度学习模型以及其在这些任务上的实验结果,同时涵盖了摘要任务的数据集和数据表示,以及与之相关的机遇和挑战,旨在激发未来的研究努力以进一步推动该领域的发展。研究目标在于解释这些方法在其需求上的不同之处,因为对它们的理解对于选择适用于特定环境的技术至关重要。
Oct, 2023
本研究介绍了一种创新的文本摘要方法,利用图神经网络(GNNs)和命名实体识别(NER)系统的能力,以提高摘要的效率和内容的相关性,为处理信息饱和世界中日益增长的文本数据量提供了一个有希望的方向。
Feb, 2024