预训练语言模型的剧情写作
通过使用具有高质量内容规划和根据亚里士多德诗学详细描述的优秀剧情编写方面的集合进行语言模型的情节生成,可以解决故事生成的问题,并发现经过良好规划的情节结构的故事比不具备内容规划或者使用不合适的规划方式的基准更加相关和高品质。
Sep, 2020
本文提出了一种将因果规划与神经语言模型统一起来的故事情节生成方法,该方法利用从大型语言模型中提取的常识知识以递归反向链接的方式扩展故事情节,并通过自动化评估证明相对于其他强基线方法它能生成更具连贯性的情节。
Dec, 2022
本文对使用 VLPLMs 和 SOTA 模型在三个不同的数据集上进行的故事生成能力进行了自动和人为评估,结果表明 VLPLMs 生成的故事比其他故事生成模型更高质量,有一定程度上的过人之处,但也揭示了在涉及世界知识的情况下容易 “抄袭” 真实故事的现象。
Jan, 2023
通过引入 reward-shaping 技术的方法,研究表明,基于语言模型的故事情节生成方法可以生成满足特定目标的故事情节,并且比基线情节生成技术具有更合理的事件顺序。
Sep, 2018
本文探讨了根据标题生成故事的开放域故事生成,提出了一种计划和写作的分层式生成框架,比较了两种规划策略,并通过实验表明了明确的故事情节规划会让生成的故事更加多样化、连贯且主题贴切。
Nov, 2018
利用个性化中间学习提取作家文本的任务无关特征,通过使用作家特定提示来个性化统一的预训练语言模型,提高文本理解任务的准确性。
Sep, 2023
本文介绍一种基于 GPT-2 的系统,利用自动故事生成技术生成可靠的短篇小说情节,以协助作家构建一个一致且引人入胜的情节,实验表明,该系统产生的短篇小说情节在一致性和可故事性等方面优于其他模型,作者尝试了一种 story continuation 任务,以确定该系统如何影响创意写作的过程。
Feb, 2023
我们提出了三个模型:OpenPlot、E2EPlot 和 RLPlot 来解决自动生成故事情节的挑战。其中,OpenPlot 通过谨慎设计的提示替换了昂贵的 OpenAI API 调用,从而实现了廉价高质量的故事情节训练数据集生成;E2EPlot 通过监督微调训练生成了与 OpenPlot 可比质量的故事情节,并且速度快于 OpenPlot 超过 10 倍;最后,我们使用 RLHF 进一步对 RLPlot 进行微调,采用多个奖励模型优化故事质量的不同方面,在悬念和惊喜方面获得了 60.0% 的胜率。
Oct, 2023
本研究探索了一种新型的粗粒度到细粒度的模型,可以生成故事文本,并通过抽象行为和实体来分解故事,生成谓词 - 参数结构的文本,最终替换实体占位符。经过广泛的分析和人工评估,我们的方法可以提高生成的故事中事件和实体的多样性和连贯性。
Feb, 2019