本研究探索了一种新型的粗粒度到细粒度的模型,可以生成故事文本,并通过抽象行为和实体来分解故事,生成谓词 - 参数结构的文本,最终替换实体占位符。经过广泛的分析和人工评估,我们的方法可以提高生成的故事中事件和实体的多样性和连贯性。
Feb, 2019
本论文提出并解决了通过两种文本生成范例 —— 统计机器翻译和深度学习,生成连贯故事的任务。使用两种 SMT 方法和一个深度 RNN 架构,将可变长度的输入描述编码为对应的潜在表示,并解码以生成形式完备的故事总结。在一个公开数据集上,利用常见的机器翻译和总结评估方法证明了所建议方法的有效性。
Jul, 2017
本文提出了一种基于潜在变量模型的神经故事生成方法,采用外部摘要模型指导该方法从训练数据中学习生成具有可解释高级情节的概述,并在自动和人类评估中取得了显著的改进。
Dec, 2019
我们提出了一种分层结构的强化学习方法,用于解决视觉叙事任务中生成连贯多句子故事的挑战,并在视觉叙事(VIST)数据集上评估了该模型的性能。
May, 2018
通过端到端训练的两步生成模型,即首先由句子级内容规划器决定涵盖的关键词组和所需的语言风格,然后由表面实现解码器生成相关和连贯的文本,可以显著优于现有竞争模型,在 Reddit 的说服性论证、维基百科的正常和简单版本的段落生成以及科学文章的摘要生成等任务中得到验证。
Sep, 2019
该研究采用基于注意力机制的序列自学习模型进行阅读理解中基于句子的自动问题生成,相比于之前的工作,该模型不依赖于手工规则或复杂的自然语言处理技术,并在人工和自动评估中都呈现出更加自然和困难的问题。
Apr, 2017
本文研究生成长篇叙述性内容的故事生成问题,提出了一种新的生成框架,通过依存关系增强机制和同义词去噪训练增强语义表示学习,显著提高了中文故事生成模型性能。
Oct, 2022
使用生成模型在大型对话语料库上构建开放域对话系统的任务得到了研究,这里我们扩展了分层递归编码器 - 解码器神经网络到对话领域,并证明了该模型与最先进的神经语言模型和后退 n-gram 模型有竞争力,我们进一步探讨了该方法及类似方法的局限性,再展示了如何通过从更大的问答匹配语料库和预训练的词嵌入中引导学习以提高其性能。
Jul, 2015
我们提出了一种基于句法树的语法引导生成模式,通过解码过程的两个部分:(1)对给定源句子中词汇化的句法上下文中的每个成分预测填充文本;(2)映射和扩展每个成分以构建下一级语法上下文以生成自然语言文本,并在重述生成和机器翻译上进行了实验。与自回归基线相比,该方法在有效性和可解释性方面更加出色。
Jun, 2023
本研究提出了一种基于神经编码器 - 解码器模型的自动问题生成方法,可以根据给定的段落生成多样化、有意义的问题并利用 SQuAD 数据集进行了初步实验研究,实验结果显示该方法可以产生流畅且多样化的问题。