基于内容计划的即插即用食谱生成
本文提出了一种神经网络体系结构,它在不牺牲端到端训练的前提下,结合了内容选择和计划,通过将生成任务分解为两个阶段,根据数据记录生成内容计划并生成文档,在自动化和人类试验中都取得了优越表现,从而提高了最近发布的 RotoWire 数据集的最新技术。
Sep, 2018
通过端到端训练的两步生成模型,即首先由句子级内容规划器决定涵盖的关键词组和所需的语言风格,然后由表面实现解码器生成相关和连贯的文本,可以显著优于现有竞争模型,在 Reddit 的说服性论证、维基百科的正常和简单版本的段落生成以及科学文章的摘要生成等任务中得到验证。
Sep, 2019
本研究提出了一种 Plan-then-Generate(PlanGen)框架,以改善神经数据生成文本模型的可控性,并通过两个基准数据集 ToTTo 和 WebNLG 进行了广泛的实验和分析,结果显示,我们的模型能够控制生成输出的句内和句间结构,而且与先前的最先进方法进行了实证比较,显示出我们的模型提高了生成质量以及人机评估的输出多样性。
Aug, 2021
本文介绍了多种扩展序列 - 序列模型的方法,旨在解决从结构化数据中生成流畅自然语言的问题,特别关注潜在内容选择过程的变体,包括复制注意力和覆盖解码。我们提出了一种基于多样集成的训练方法,以鼓励模型在训练过程中学习不同的句子模板,并通过比较其生成的文本在五个自动度量标准和人类评估中的结果,表明这些技术可以提高生成文本的质量。
Oct, 2018
通过 Plug-and-Blend 框架在人工输入多个控制代码的情况下,通过使用不同的生成语言模型进行自动故事生成并不断优化和生成流畅的故事,实现了主题的宽松和细粒度控制,并实现了叠加和混合主题。
Mar, 2021
本文提出了 PLANET 框架,采用自回归自注意机制,结合包含词汇的句子级语义计划来动态地进行内容规划和表面实现。引入基于连贯性的对比学习目标,以进一步提高输出的连贯性。实验结果表明,我们的方法在生成较富内容的连贯文本方面优于基线方法。
Mar, 2022
提出了一种新方法 ScratchPlot,使用 Pre-trained language models,利用 content planning 生成故事情节,并使用 generate-and-rank approach 对所生成的(story, ending)pairs 进行排序。实验表明,在人类评估和自动评估中都获得了更好的结果。
Jun, 2022
本论文考虑数据到文本生成的任务,着重提出了一种生成长篇文章的神经模型,增加了计划组件来组织高层次信息,在结构化变分模型的帮助下逐步推理出潜在计划,从而生成文本。在 RotoWire 和 MLB 两个数据到文本基准测试中,本模型表现优于基准模型,并且在训练数据有限的情况下具有较高的样本效率。
Feb, 2022