提出了一种新方法 ScratchPlot,使用 Pre-trained language models,利用 content planning 生成故事情节,并使用 generate-and-rank approach 对所生成的(story, ending)pairs 进行排序。实验表明,在人类评估和自动评估中都获得了更好的结果。
Jun, 2022
本文对使用 VLPLMs 和 SOTA 模型在三个不同的数据集上进行的故事生成能力进行了自动和人为评估,结果表明 VLPLMs 生成的故事比其他故事生成模型更高质量,有一定程度上的过人之处,但也揭示了在涉及世界知识的情况下容易 “抄袭” 真实故事的现象。
Jan, 2023
研究小说悬念的计算建模方法,提出一种基于层次语言模型的方法,对短篇小说进行人类悬念判断,结果显示使用基于陈述的不确定性降低表示法可以实现接近人类水平的准确度,并且可以用于预测电影剧情中的悬念事件。
Apr, 2020
本研究探索了一种新型的粗粒度到细粒度的模型,可以生成故事文本,并通过抽象行为和实体来分解故事,生成谓词 - 参数结构的文本,最终替换实体占位符。经过广泛的分析和人工评估,我们的方法可以提高生成的故事中事件和实体的多样性和连贯性。
Feb, 2019
文章介绍了如何通过自我训练深度学习模型,应用自监督系统的叙事理论方法来推断故事中的重点,惊喜和吸引力,并应用于小说和戏剧等领域,具有广泛的适应性和应用前景。
通过引入 reward-shaping 技术的方法,研究表明,基于语言模型的故事情节生成方法可以生成满足特定目标的故事情节,并且比基线情节生成技术具有更合理的事件顺序。
Sep, 2018
自动故事评估与生成在社交交互中起到重要作用,研究表明大语言模型能够替代人工评注者,但仍存在解释答案的困难。
May, 2024
本文提出了一种基于潜在变量模型的神经故事生成方法,采用外部摘要模型指导该方法从训练数据中学习生成具有可解释高级情节的概述,并在自动和人类评估中取得了显著的改进。
Dec, 2019
本文提出了一种将因果规划与神经语言模型统一起来的故事情节生成方法,该方法利用从大型语言模型中提取的常识知识以递归反向链接的方式扩展故事情节,并通过自动化评估证明相对于其他强基线方法它能生成更具连贯性的情节。
Dec, 2022
通过使用具有高质量内容规划和根据亚里士多德诗学详细描述的优秀剧情编写方面的集合进行语言模型的情节生成,可以解决故事生成的问题,并发现经过良好规划的情节结构的故事比不具备内容规划或者使用不合适的规划方式的基准更加相关和高品质。
Sep, 2020