提出了一种基于编码器 - 解码器和 RNN 的自注意力神经网络模型,通过组合监督和强化学习来训练和生成连贯性和可读性更强的长文摘要,与目前最先进模型相比,在 CNN / Daily Mail 数据集上取得了 41.16 的 ROUGE-1 得分,并且人工评估表明我们的模型产生了更高质量的摘要。
May, 2017
本文提出了一种针对单个较长文档(如研究论文)进行抽象概括的模型,采用新的分层编码器对文章进行语篇结构建模,并运用有意识的编码器生成摘要,实验证明该模型显著优于现有模型。
Apr, 2018
研究表明摘要任务中有稀疏的句子结构,可以用部分输入句子来限制编码器 - 解码器注意机制,并保持系统性能。
Sep, 2021
本文提出了一种基于文档精华提取的文本摘要方法,并通过引入语言因素和改进神经网络如 LSTMs 和 Neural Semantic Encoders,利用自我强化学习模型进一步提高了文本摘要的质量,实现并超越了文本摘要领域的最佳性能,其中基于分层 NSE 模型的 ROUGE 值提升近 4 个百分点。
Oct, 2019
该研究使用注意力编码 - 解码循环神经网络模型抽象化文本摘要,并在两个不同的语料库上展示其实现最先进的性能。同时,该研究还提出了几种解决文摘中的关键问题的新模型,比如建模关键词、捕捉句子到单词结构的层次以及提取训练时很少出现的单词等。此外,研究还建立了一个多句子的文摘数据集,以便后续的新研究能建立性能基准。
Feb, 2016
提出使用层次感知图神经网络(HierGNN)实现文档结构层次分析的自动摘要模型,在 CNN / DM 和 XSum 数据集上分别取得了平均 ROUGE-1/2/L 为 0.55 和 0.75,在人工评估中也证明了其比基线具有更高的内容相关性和较少的冗余。
Nov, 2022
本文提出了一种神经网络归纳模型,能够有效地处理多个输入文档,并利用 Transformers 架构对文档进行层次编码,通过注意力机制来表示跨文档之间的关系,并学习文本单元之间的潜在依赖关系,在 Wikisum 数据集上的实验证明,所提出的架构比数个强基线模型都有明显的改进。
May, 2019
提出了一种基于分层结构自注意力机制的新模型,将摘要任务作为分类问题处理,并通过信息内容、显著性、新颖性和位置表示等特征进行预测,实验结果表明该模型在 CNN / Daily Mail 和 DUC 2002 数据集上胜过当前最先进的抽取性模型。
May, 2018
本文提出一种新颖的端到端问题聚焦的多因素注意网络,用于回答提问文本中的问题,通过张量变换实现多因素关注编码,以对散布在多个句子中的信息进行建模,并采用最大化注意聚合机制来对提问文本进行编码,从而实现对问题类型的隐式推断,并在三个大型挑战性问题回答数据集中实现了显著的性能提升。
Jan, 2018
论文提出了一种基于神经网络和连续句子特征的数据驱动型抽取式摘要方法,采用层级文档编码器和基于注意力机制的提取器的通用框架,能够训练不同的摘要模型(提取句子或单词),在大规模语料库上进行实验结果表明,该方法在不需要语言注解的情况下取得了与现有技术相当的效果。
Mar, 2016