探索在自动化故事生成方面的事件表示,技术预处理为事件序列,并将问题分解为连续事件与事件的自然语言句子生成,比较不同事件表示对事件的继承和文本生成的影响。
Jun, 2017
本文提出了一种将因果规划与神经语言模型统一起来的故事情节生成方法,该方法利用从大型语言模型中提取的常识知识以递归反向链接的方式扩展故事情节,并通过自动化评估证明相对于其他强基线方法它能生成更具连贯性的情节。
Dec, 2022
通过事件图谱,本论文提出构建事件序列以引导生成器的方法来生成故事,实现故事的高水平理解和语义理解,从而产生更多逻辑上正确的事件序列和故事。
Feb, 2021
本文提出了一种基于潜在变量模型的神经故事生成方法,采用外部摘要模型指导该方法从训练数据中学习生成具有可解释高级情节的概述,并在自动和人类评估中取得了显著的改进。
Dec, 2019
本论文提出并解决了通过两种文本生成范例 —— 统计机器翻译和深度学习,生成连贯故事的任务。使用两种 SMT 方法和一个深度 RNN 架构,将可变长度的输入描述编码为对应的潜在表示,并解码以生成形式完备的故事总结。在一个公开数据集上,利用常见的机器翻译和总结评估方法证明了所建议方法的有效性。
Jul, 2017
本研究提出一种基于自动构建事件图和神经事件顾问的事件规划框架,以提高长文本生成的性能,实验结果表明,该框架不仅在事件序列生成方面表现优异,而且在故事生成的下游任务上的效果也十分显著。
Oct, 2022
本文提出了一种新颖的两阶段方法 —— 事件转移规划和文本生成,可以在在开放式文本生成中明确地安排事件顺序,从而在生成的文本中改善一致性和多样性。
Apr, 2022
通过端到端训练的两步生成模型,即首先由句子级内容规划器决定涵盖的关键词组和所需的语言风格,然后由表面实现解码器生成相关和连贯的文本,可以显著优于现有竞争模型,在 Reddit 的说服性论证、维基百科的正常和简单版本的段落生成以及科学文章的摘要生成等任务中得到验证。
Sep, 2019
该研究比较了使用 NLP 流程产生的结构化动词和论点事件和最近的基于递归神经网络的模型,发现后者在预测文档中缺失事件方面与前者大致相当。
Apr, 2016
该研究探讨了故事生成:创作系统可以在一个主题上构建连贯流畅的文本段落,使用一个大规模的数据集,通过分层式故事生成模型,研究人员成功地实现了模型融合,引入了新的门控多尺度自注意机制,并在自动化和人工评估中实现了显著的改进。
May, 2018