想象与回忆故事:量化叙事流程的差别
基于图像流生成合理和生动的故事情节的多模态的人类水平故事生成方法 LLaMS 通过充分利用 LLM 中的常识知识,首先采用序列数据自动增强策略来增强实际内容表达,并利用文本推理架构进行表达性故事生成和预测;其次,我们提出故事插图生成的 SQ-Adapter 模块来保持序列一致性。通过人工评估验证了 LLaMS 提出方法的优越性,与之前的 SOTA 方法相比具有最先进的故事性能,具有 86% 的相关性和 100% 的一致性胜率。此外,还进行了消融实验以验证所提出的序列数据增强和 SQ-Adapter 的有效性。
Mar, 2024
通过引入个人叙述语料库并使用 Labov 的社会语言学模型及机器学习方法进行标注,文章探讨了人们比较故事时依赖于行动和评价这两个方面,以此为基础帮助机器学习研究或表现个人叙述的方法。
May, 2020
本研究提出了一种结合行为和计算实验的框架,利用虚构提示作为一种新颖工具,研究人类和生成型 AI 在叙事中的文化产物和社会偏见。通过分析人类和大型语言模型对创建并与人工智能恋爱的相同提示的回应,实验证明了 Pygmalion 神话在人类和大型语言模型的集体想象中一直存在的普遍存在。分析揭示了 GPT-3.5 和特别是 GPT-4 的叙事在性别角色和性取向方面比人类更加进步。虽然人工智能的叙事偶尔会提供创新的情节转折,但其提供的情境和修辞比人类的文本更缺乏想象力。该提出的框架认为小说可以作为了解人类和基于人工智能的集体想象和社会维度的窗口。
Oct, 2023
语言模型作为一种科学工具,我们展示了它在研究人类对有意义材料的记忆上的应用,通过在线大规模记忆实验和结果分析,发现记忆和认知表现与叙述长度成线性关系,并且研究叙述理解在记忆中的作用。
Nov, 2023
提出了一种新颖的方法,使用外部神经记忆链跟踪不同的语义方面,每个链条专注于特定的语义方面,以实现对叙述的深层语义理解,该方法在故事结尾预测任务上表现优异,超过了一系列竞争基线,并创造了新的最先进成果。
May, 2018
该研究探讨了使用细分搜索解决情节生成问题的可能性,并提出了一种新型的细分搜索规划算法,可以创建具有因果关系的情节进展,并在识别可能的角色目标和创建计划结构方面解释为什么这些角色承诺他们的目标。结果表明,IPOCL 算法生成的叙述计划比传统的部分顺序规划器生成的计划更能支持观众理解角色意图。
Jan, 2014
本文基于叙述文本中的双重时间特征,提出了一种新颖的方法来获取跨句子的丰富的事件先后顺序知识。通过探索叙述学原则和构建弱监督学习,从三个大型文本语料库中识别了 287k 个叙述段落,并从中提取了丰富的事件时间知识,这种事件知识对于改善时间关系分类任务很有用,并在叙述 Cloze 任务上优于最近几个神经网络模型。
May, 2018
本文提出了一种从自然语言文本中提取事件链的方法,该方法可以过滤非显著事件和支持性句子,并在两个任务中证明了其有效性:叙述预测和基于事件的时间问答。
Sep, 2021
本文介绍了一种将 Scheherazade 故事意图图转换成人物 NLG 引擎所需输入的自动方法,使用 36 个 Aesop 寓言进行测试,结果表明我们可以生成正确内容,平均与 Scheherazade 实现器的输出接近。
Aug, 2017