通过深度强化学习学习提取连贯摘要
提出了一种多任务学习架构,用于基于从文本中提取摘要,其中包含摘要器和连贯判别器模块,通过预训练的转换模型(基于模型)和转换矩阵(MAT-based)将句子表示合并,实现了可微分训练,并以此最大化了连贯判别器的连贯度分数,并通过人工评估证实了我们方法提高了从原始文章位置开始提取的连续句子的比例以及有效保留了其他自动评估指标。
May, 2023
提出了一种基于编码器 - 解码器和 RNN 的自注意力神经网络模型,通过组合监督和强化学习来训练和生成连贯性和可读性更强的长文摘要,与目前最先进模型相比,在 CNN / Daily Mail 数据集上取得了 41.16 的 ROUGE-1 得分,并且人工评估表明我们的模型产生了更高质量的摘要。
May, 2017
提出了一种用于单文档大意提取的全新算法,能够通过强化学习目标全局优化 ROUGE 评估指标,并在 CNN 和 DailyMail 数据集上进行了实验,展示它在人工和自动评估中均优于现有抽取和生成式提取系统的神经大意提取模型。
Feb, 2018
该研究提出了一种名为 SENECA 的抽象概括框架,利用实体信息生成信息丰富且连贯的摘要,该框架采用增强学习连接两个部分,即实体感知内容选择和抽象产生,并通过奖励训练以增加连贯性、简洁性和清晰度,自动和人工评估表明,该模型在 ROUGE 和新闻数据集上优于先前的最新技术,并且其产生的摘要较为信息丰富和连贯。
Sep, 2019
通过端到端的无监督深度学习方法,可以有效地建立并评估理解连贯文本结构的模型,从而实现有用的文本表示方法,有利于句子语义相似性和重复检测等 NLP 任务的完成。
Nov, 2016
本文通过使用句子重写模型,采用先提取常规句子,后对所选句子进行释义来生成摘要的策略,提出了一种通过强化学习直接最大化摘要级别 ROUGE 得分的新型训练信号,并在 CNN / Daily Mail 和纽约时报数据集上展示了新的最先进表现。在整个实验中,我们还演示了它在 DUC-2002 测试集上的普遍适用性。
Sep, 2019
本文提出了一种新的神经语言模型,它具备两个神经鉴别器,可以在句子层面(内聚性)和段落层面(连贯性)提供反馈信号,并且使用了一种称为负关键序列训练的简单而有效的策略梯度方法进行训练。结果表明,相对于基线(基于双向 MLE 训练的复发关注神经语言模型),我们的方法有效改善了模型表现。
Nov, 2018
在这篇论文中,我们提出了一种新颖的端到端神经网络框架,通过联合学习对句子进行评分和选择来实现摘要提取。在 CNN / Daily Mail 数据集上的实验证明,我们的方法比现有的抽取式摘要模型表现出更好的效果。
Jul, 2018
DeepChannel 模型是一种强大、高效、可解释的神经网络模型,结合了注意力机制和对比性训练策略,能够从文本中提取最重要的信息,表现出强大的鲁棒性和数据高效性。
Nov, 2018
本研究论文使用分布式语义学方法,提出了一种新的奖励制度 DSR (Distributional Semantics Reward),用于评估候选摘要的性能,与传统的奖励模式相比,DSR 可以更准确地捕捉自然语言的词汇和构成多样性。
Aug, 2019