提出了一种新方法 ScratchPlot,使用 Pre-trained language models,利用 content planning 生成故事情节,并使用 generate-and-rank approach 对所生成的(story, ending)pairs 进行排序。实验表明,在人类评估和自动评估中都获得了更好的结果。
Jun, 2022
采用混合启示法和智能门控功能的多任务学习可以显著降低语言模型的困惑度。
Oct, 2023
本文介绍一种基于 GPT-2 的系统,利用自动故事生成技术生成可靠的短篇小说情节,以协助作家构建一个一致且引人入胜的情节,实验表明,该系统产生的短篇小说情节在一致性和可故事性等方面优于其他模型,作者尝试了一种 story continuation 任务,以确定该系统如何影响创意写作的过程。
Feb, 2023
本文针对故事生成中存在的重复、逻辑冲突和长距离一致性缺乏等问题,提出了一种基于知识增强预训练模型的通用故事生成方法。通过利用外部知识库中的常识知识来生成合理的故事,并采用多任务学习的方法来捕捉合理故事中句子之间的因果关系和时间依赖关系,从而在逻辑和整体一致性方面比其他最先进的模型有更好的表现。
Jan, 2020
本文提出了自然前提选择 (Natural Premise Selection) 这一新型自然语言处理 (NLP) 任务,以便找到能为生成某个语句非正式数学证明提供支持定义和支持命题的前提;此外,我们还提供了一个数据集 NL-PS,用于评估不同方法在此任务上的表现,并使用不同的基线模型来展示了该任务所涉及的基本解释挑战。
Apr, 2020
使用迭代提示基于规划的方法,这篇论文首次尝试使用大型语言模型进行悬疑故事生成,并通过广泛的人类评估证明了方法的有效性。
Feb, 2024
本文提出了一种基于 Premise 的多模态推理任务,建立了 PMR 数据集用于评价多模态推理模型的性能。
May, 2021
本论文提出了基于机器学习的前提选择方法,通过构建依赖关系知识库并提出核方法的前提选择算法,在大型数学理论证明中实现了 50%的性能提升。
Aug, 2011
通过使用具有高质量内容规划和根据亚里士多德诗学详细描述的优秀剧情编写方面的集合进行语言模型的情节生成,可以解决故事生成的问题,并发现经过良好规划的情节结构的故事比不具备内容规划或者使用不合适的规划方式的基准更加相关和高品质。
Sep, 2020
本文提出了一种将因果规划与神经语言模型统一起来的故事情节生成方法,该方法利用从大型语言模型中提取的常识知识以递归反向链接的方式扩展故事情节,并通过自动化评估证明相对于其他强基线方法它能生成更具连贯性的情节。
Dec, 2022