多样序列生成的混合内容选择
本研究提出了一种新的神经编码 - 解码模型,它将内容选择与表面实现分离,实现了对生成文本内容的控制。该模型在数据到文本和标题生成任务中获得了有希望的结果,为文本生成中的可控内容选择铺平了道路。
Sep, 2019
将解码算法视为多目标优化问题,旨在同时最大化回应质量和多样性。当多样性是一个优先考虑的因素时,所有方法表现相似,但当质量被视为更重要时,近期提出的核采样 (nucleus sampling) 优于所有其他评估的解码算法。在这一发现的基础上,我们设计并评估了一种名为 “选择性抽样” 的算法,该算法可以近似全局归一化温度抽样。
Apr, 2020
本文介绍了多种扩展序列 - 序列模型的方法,旨在解决从结构化数据中生成流畅自然语言的问题,特别关注潜在内容选择过程的变体,包括复制注意力和覆盖解码。我们提出了一种基于多样集成的训练方法,以鼓励模型在训练过程中学习不同的句子模板,并通过比较其生成的文本在五个自动度量标准和人类评估中的结果,表明这些技术可以提高生成文本的质量。
Oct, 2018
Composition Sampling 提出了用于条件生成的简单而有效的方法,该方法基于最近提出的基于计划的神经生成模型,并通过先采样实体链的组合形式,避免了文本退化,最终在此基础上生成最优的文本,实验证明,该方法是目前生成多样有意义输出的最佳策略。
Mar, 2022
本文研究了通过 EM 训练的混合模型在文本生成方面的应用,通过设计参数、优化模型选择和评估协议,提出了一些更为鲁棒的混合模型,相比于变分模型和多样的解码方法在翻译质量和多样性之间提供了更好的平衡点。
Feb, 2019
本文通过引入一种称为微观 DPPs 和宏观 DPPs 的方法,提出了一个名为 DivCNN Seq2Seq 的 Diverse Convolutional Seq2Seq 模型,用于生成注重质量和多样性的 attention distribution,从而相比传统模型和强基线模型实现更高的综合性摘要生成。
Sep, 2019
本研究提出了一种简单而有效的关注头屏蔽技术,应用于编码器 - 解码器注意力以确定推断时显着的内容,对三个摘要数据集进行了演示,证明了其在数据效率和性能上的优越性。
Apr, 2021
本文探索了各种数据选择策略,依靠多个度量,利用了渐变嵌入和损失嵌入方法,以提高针对多语言预训练模型的 POS 标记、NER 和 NLI 任务的 Few-shot 迁移的性能。实验证明,所提出的方法始终优于随机数据选择基线,即使仅使用更少的标记数据进行零 - shot 迁移,也能显著提高性能。
Jun, 2022
本文提出了一种神经网络体系结构,它在不牺牲端到端训练的前提下,结合了内容选择和计划,通过将生成任务分解为两个阶段,根据数据记录生成内容计划并生成文档,在自动化和人类试验中都取得了优越表现,从而提高了最近发布的 RotoWire 数据集的最新技术。
Sep, 2018