本文提出了一种基于查询的文章摘要生成模型,使用新闻文章摘要数据集训练了指针生成模型,通过与参考摘要的相似度评估生成的摘要,结果表明可以构建类似于抽象式摘要的神经网络模型,使用查询生成有针对性的摘要。
Dec, 2017
本文提出了一种摘要框架,通过将目标的所有评论压缩为多个密集向量以代替传统的前置筛选步骤,从而最大化地保留所有信息,进而生成更具信息量的摘要,并且采用零样本技术,能够有效地生成根据用户需求定制的摘要,实验结果表明了该模型在 Rotten Tomatoes 数据集上的优越性能。
Sep, 2019
本文提出了一种基于数据驱动的、对抽象句子的局部关注模型进行生成式摘要的方法,通过训练大规模数据,该模型相比较于几种强基线模型在 DUC-2004 共享任务中表现了显著的性能提升。
Sep, 2015
提出使用上下文相关网络和预训练的语言模型来提高抽象文本摘要的生成水平和使用新颖度度量来优化生成的摘要,从而实现比现有方法更高水平的摘要生成。
Aug, 2018
本文综述了近期在基于神经网络的自动文本摘要中的十种最先进的神经网络模型,其中包括五种生成式模型和五种抽取式模型,并讨论了应用于摘要任务的相关技术和未来研究的有前途的方向。
Mar, 2018
本文提出了一种基于语义理解的神经生成式摘要模型,通过对显要内容的语义解释学习生成高质量摘要。同时引入一种新的对抗样本评估体制,证明该模型比流行的指针 - 生成式模型更好地识别了离题信息,并且人工评估结果表明本文模型生成的摘要更具信息量和可信度,且冗余度更低。
Oct, 2018
本文提出了一种基于自我训练的抽象化意见摘要方法 OpineSum,该方法使用文本蕴涵的新颖应用程序来捕捉一个项目的各种评论中的意见共识,从而在大规模上获得银标准摘要并训练无监督和少量样本的摘要系统,而在结构中实现了最先进的性能。
Dec, 2022
提出了一种基于编码器 - 解码器和 RNN 的自注意力神经网络模型,通过组合监督和强化学习来训练和生成连贯性和可读性更强的长文摘要,与目前最先进模型相比,在 CNN / Daily Mail 数据集上取得了 41.16 的 ROUGE-1 得分,并且人工评估表明我们的模型产生了更高质量的摘要。
May, 2017
本文介绍了一种学习无监督条款,在生成模型中引入少量样本来捕获其必要属性的方法,用于生成商品评论等主观性文本的摘要,该方法比以往的提取和抽象方法更有效。
Apr, 2020
我们提出了一种无监督的意见摘要方法,该方法将顾客评论中的句子编码到分层离散的潜空间中,然后基于编码的频率识别常见的意见,并通过解码这些频繁的编码生成抽象摘要和通过选择分配给相同频繁编码的句子生成提取摘要
May, 2023