神经故事生成中预测可解释情节的学习
本文提出了一种将因果规划与神经语言模型统一起来的故事情节生成方法,该方法利用从大型语言模型中提取的常识知识以递归反向链接的方式扩展故事情节,并通过自动化评估证明相对于其他强基线方法它能生成更具连贯性的情节。
Dec, 2022
本文提出了一种可解释自然语言理解的框架,使用一小部分人类注释的解释进行训练,并采用变分 EM 方法进行优化,同时提出了基于解释的自训练方法,在两个自然语言理解任务上进行实验,证明了该框架不仅可以在监督和半监督设置下进行有效的预测,还可以生成良好的自然语言解释。
Oct, 2020
该研究探讨了故事生成:创作系统可以在一个主题上构建连贯流畅的文本段落,使用一个大规模的数据集,通过分层式故事生成模型,研究人员成功地实现了模型融合,引入了新的门控多尺度自注意机制,并在自动化和人工评估中实现了显著的改进。
May, 2018
通过引入 reward-shaping 技术的方法,研究表明,基于语言模型的故事情节生成方法可以生成满足特定目标的故事情节,并且比基线情节生成技术具有更合理的事件顺序。
Sep, 2018
本文介绍一种基于 GPT-2 的系统,利用自动故事生成技术生成可靠的短篇小说情节,以协助作家构建一个一致且引人入胜的情节,实验表明,该系统产生的短篇小说情节在一致性和可故事性等方面优于其他模型,作者尝试了一种 story continuation 任务,以确定该系统如何影响创意写作的过程。
Feb, 2023
本论文提出并解决了通过两种文本生成范例 —— 统计机器翻译和深度学习,生成连贯故事的任务。使用两种 SMT 方法和一个深度 RNN 架构,将可变长度的输入描述编码为对应的潜在表示,并解码以生成形式完备的故事总结。在一个公开数据集上,利用常见的机器翻译和总结评估方法证明了所建议方法的有效性。
Jul, 2017
该研究提出了基于提纲的故事生成任务,通过追踪动态情节状态,将提纲转换成一篇连贯的故事的神经叙事模型可学习不同写作风格,包括大规模语言模型生成的故事一般存在不连贯的情况。
Apr, 2020