精准长度控制摘要
本文提出了一种新的长度可控的抽象汇总模型,与以往仅根据编码器 - 解码器模型生成一篇总结不同,我们的模型在编码器 - 解码器模型中结合了单词级别的抽取模块,通过提取重要的词来控制长度,生成了一个同时具有信息和长度控制的汇总。
Jan, 2020
本研究提出有效的长度控制模块 Length Attention (LenAtten),在固定长度自动摘要任务中,我们的模型在长度控制性能方面高出 CNN/Daily Mail 数据集中表现最好的长度可控自动摘要模型 732 倍,并且在 ROGUE 得分和泛化能力方面也有显著提高。
Jun, 2021
本文提出了一种神经摘要模型,能够通过简单而有效的机制实现用户对文本长度、风格、感兴趣的实体等高级属性的控制,以生成符合用户需求的高质量摘要,并在 CNN-Dailymail 数据集上优于现有的自动化系统和人工评价。
Nov, 2017
CTRLsum 是一种用于可控摘要的新型框架,它能够使用户通过文本输入关键词或描述性提示来控制生成摘要的多个方面,在不需要额外人工注释或预定义训练期间的控制方面的情况下,在三个领域的摘要数据集和五种控制方面中得到量化证明,并在 CNN/DailyMail 数据集上取得了最先进的结果。
Dec, 2020
本研究通过引入基于约束马尔可夫决策过程(CMDP)的训练框架,允许用户对生成的摘要进行特定属性(例如长度限制)的控制,该框架旨在通过奖励函数和一组约束来提高摘要生成的可控性。实验结果表明,我们的 CMDP 框架有助于生成具有信息量的摘要,并符合用户对属性的要求。
Aug, 2021
该研究探讨了对话摘要长度的影响因素,分析了摘要生成模型输出与人类参考文本的长度差异,并提出了基于长度感知的摘要生成模型,对 DialogSum 和 SAMSum 数据集进行实验,取得了显著的性能提升。
Sep, 2022
通过采用强化学习和通过基于规则的奖励模型给出的奖励信号进行样本过滤的方式,我们提出了一种基于提示的方法,以不同的控制类型实现控制长度的生成,并在流行的摘要数据集上显著提高了准确率。
Jun, 2024
本文提出两种基于解码和两种基于学习的方法,用于控制神经编码器 - 解码器模型的输出序列长度,结果表明学习方法在摘要生成任务中具有控制长度而不降低摘要质量的能力。
Sep, 2016