基于深度神经网络的自动化故事生成的事件表示
通过事件图谱,本论文提出构建事件序列以引导生成器的方法来生成故事,实现故事的高水平理解和语义理解,从而产生更多逻辑上正确的事件序列和故事。
Feb, 2021
本文提出了一种将因果规划与神经语言模型统一起来的故事情节生成方法,该方法利用从大型语言模型中提取的常识知识以递归反向链接的方式扩展故事情节,并通过自动化评估证明相对于其他强基线方法它能生成更具连贯性的情节。
Dec, 2022
本论文提出并解决了通过两种文本生成范例 —— 统计机器翻译和深度学习,生成连贯故事的任务。使用两种 SMT 方法和一个深度 RNN 架构,将可变长度的输入描述编码为对应的潜在表示,并解码以生成形式完备的故事总结。在一个公开数据集上,利用常见的机器翻译和总结评估方法证明了所建议方法的有效性。
Jul, 2017
本综述文章聚焦于从事件中心的角度提取新闻叙事,包括合成、组织、评估方法等方面,总结了 900 多篇相关文章中的 54 篇研究,分析了近年来的趋势和未来的挑战和潜在研究方向。
Feb, 2023
本研究提出一种基于自动构建事件图和神经事件顾问的事件规划框架,以提高长文本生成的性能,实验结果表明,该框架不仅在事件序列生成方面表现优异,而且在故事生成的下游任务上的效果也十分显著。
Oct, 2022
本文提出了一个基于对抗生成网络的事件提取模型,可以对长文本进行结构化表示,实验结果显示该模型在三个数据集上的表现优于基线模型,尤其在新闻文章数据集上提高了 15% 的 F - 度量值。
Aug, 2019
本文介绍了两种自动化技术,基于深度强化学习和奖励塑造来控制计算机生成的故事的情节,其中一种利用 PPO 对现有的基于变压器的语言模型进行微调,以生成既能连续文本又能寻求目标的故事;而另一种从不断展开的故事中提取出一个知识图谱,由含有图形注意力机制的策略网络选择由语言模型生成的一个候选连续行。我们根据自动化指标和人类参与者对连贯性和整体故事质量的排名来报告与基线和消融情况的比较。
Dec, 2021
利用自然语言处理技术,结合知识图谱的构建和上下文关系,利用 Transformer 技术从文本中提取事实信息以构建全面的基于图的事件表示。
Mar, 2023
利用大型语言模型 (LLM) 的最新进展,我们提出了首个事件因果识别方法,从 GPT 中设计特定提示以提取事件因果关系。根据 GLUCOSE 数据集中的人工注释事件因果关系,我们的技术表现与监督模型相当,同时易于推广到不同类型和长度的故事。提取的因果关系在故事质量评估上带来了 5.7% 的提升和 8.7% 的故事视频文本对齐改进,我们的发现表明事件因果在计算机故事理解中有巨大的潜力。
Nov, 2023