- ACLOpenMEVA:用于评估开放式故事生成指标的基准
该研究提出了 OpenMEVA 标准,用于评估故事生成指标的能力,揭示了现有的自动度量标准与人类评估的相关性不足,并且缺乏推理能力,该研究为进一步研究自然语言生成模型和指标提出了启示。
- GraphPlan: 基于事件图规划的故事生成
通过事件图谱,本论文提出构建事件序列以引导生成器的方法来生成故事,实现故事的高水平理解和语义理解,从而产生更多逻辑上正确的事件序列和故事。
- COLING运用巴特的基本功能模拟故事情节中事件的重要性
本文提出了几种无监督方法来计算事件显著性,这些方法采用了巴特思对事件显著性的定义,并仅需要一个预先训练的语言模型。 在叙事文本上微调语言模型是提高提出方法表现的关键因素。
- 可控的多人物心理导向故事生成
本文提出了一种基于多字符心理线的故事生成模型 SoCP,通过注意力机制实现不同角色心理状态的转变控制, 并引入一种新的心理状态控制度量来评估模型效果。实验结果表明该模型能够自动生成包括多个角色、丰富的情感变化的故事。
- EMNLP搭载离散潜在计划的叙事文本生成
本文提出了一种基于深度潜变量模型的故事生成方法,其首先采样一个锚定词序列为生成过程的一部分,并在训练过程中以该锚定词序列为潜变量来引导无监督生成。通过实验和人工评估,表明该模型的生成故事不仅在故事规划的目标(锚定词序列)上更具准确性,而且在 - EMNLPSTORIUM:一个面向机器循环故事生成的数据集和评估平台
该论文介绍了一个由 STORIUM 构建的故事生成数据集和评估平台的细节,提供了具有细粒度自然语言注释和作者生成的 6K 个长度较长(125M 个标记)的故事,旨在帮助人们更好地了解故事生成,并通过整合到 STORIUM 进行评估,来提高模 - EMNLP神经故事生成的内容规划与亚里士多德重评分
通过使用具有高质量内容规划和根据亚里士多德诗学详细描述的优秀剧情编写方面的集合进行语言模型的情节生成,可以解决故事生成的问题,并发现经过良好规划的情节结构的故事比不具备内容规划或者使用不合适的规划方式的基准更加相关和高品质。
- EMNLPUNION:用于评估开放式故事生成的无参考度量
提出了一种基于 BERT 的可学习无参考度量方法 UNION,该方法可以评估生成故事的质量,而不需要任何参考。它可以识别出人类编写的故事并恢复负面故事中的扰动,并模仿现有自然语言生成模型中常见的错误来构建负面样本。在两个故事数据集上的实验证 - 基于知识增强的通识常识故事生成预训练模型
本文针对故事生成中存在的重复、逻辑冲突和长距离一致性缺乏等问题,提出了一种基于知识增强预训练模型的通用故事生成方法。通过利用外部知识库中的常识知识来生成合理的故事,并采用多任务学习的方法来捕捉合理故事中句子之间的因果关系和时间依赖关系,从而 - 神经故事生成中预测可解释情节的学习
本文提出了一种基于潜在变量模型的神经故事生成方法,采用外部摘要模型指导该方法从训练数据中学习生成具有可解释高级情节的概述,并在自动和人类评估中取得了显著的改进。
- AAAI知识增强型视觉叙事
该研究提出了 KG-Story,这是一个通过使用外部知识图谱生成有趣故事的三阶段框架,采用序列化的照片作为输入,比起现有最先进的系统,经人类评价的结果表明 KG-Story 产生的故事平均排名更好。
- COLING保持一致性:通过迭代多智能体通信从图像流中进行主题感知的故事叙述
本研究提出了一种新的视觉叙述方法,引入话题描述任务来检测图像流的全局语义背景,并通过多代理通信框架将话题描述生成器与故事生成器合并学习,实验结果表明该方法在生成故事方面具有比现有方法更高的质量。
- 大规模预训练语言模型是否能成为更好的讲故事者?
比较已经经过广泛预训练的 OpenAI GPT2-117 和最先进的神经故事生成模型,发现前者在上下文条件、事件排序和使用不寻常词汇方面具有优势,但使用最大似然解码算法时可能会出现重复的低多样性文本。
- ACLGLAC Net: 多图像提示故事生成的 GLocal 注意力级联网络
本研究提出 GLAC Net 模型,结合全局 - 局部注意力和上下文级联机制,实现多图故事生成,模型在视觉叙事数据集上获得极具竞争力的结果。
- 分层神经故事生成
该研究探讨了故事生成:创作系统可以在一个主题上构建连贯流畅的文本段落,使用一个大规模的数据集,通过分层式故事生成模型,研究人员成功地实现了模型融合,引入了新的门控多尺度自注意机制,并在自动化和人工评估中实现了显著的改进。