走向基于字符间关系的故事生成
研究角色是计算上表示和解释叙述性文本的关键,本文通过提出一个半监督框架来从全面和部分标记的数据中学习动态发展的角色关系,使用 Markovian 模型来积累历史信仰,结合语言和语义功能特征来研究叙述的文本内容,实验证明此框架优于基准模型。
Nov, 2015
本文研究关系人物之间的情感极性特征,并提出结构化预测和聚类方法来解决该问题,在语言和语义特征的基础上,通过社交网络结构来提高模型性能。作者在维基百科电影概要数据集上验证了模型的优越性。
Dec, 2015
本文探讨以人物为驱动的故事延续,引入角色之间的第一人称和第二人称叙述以及对话,需要模型选择与角色个性和关系一致并推动故事发展的语言。我们假设在训练人物对话和关系信息的多任务模型的基础上,改进了基于 Transformer 的故事延续。为此,我们拓展了 Critical Role Dungeons and Dragons 数据集,并通过自动提取每对交互角色之间的关系和他们的个性。一系列实验为我们的假设提供了证据,表明我们使用人物关系的多任务模型相对于强基线能够提高故事延续的准确性。
May, 2021
该研究利用 VIST 数据集,提出了一个模型,通过隐式学习提供的角色之间的关系,生成关注的角色的故事,旨在解决基于图像序列生成故事时,模型忽略可能存在的人和动物角色的问题。
Sep, 2019
提出了一种基于知识图谱关系的潜在关系语言模型 (Latent Relation Language Models, LRLMs), 该模型不仅能提高语言建模性能,还能添加实体跨度的后验概率,实验结果表明该模型的性能优于基准模型和之前的知识图谱信息存在的模型,定性分析进一步证明了所提议的模型在上下文中预测适当的关系的能力。
Aug, 2019
本文提出了神经网络来学习和联合预测人物之间的互动关系及其涉及的角色,利用视觉和对话提示,通过多模态架构从中提取有意义的信息,并在 MovieGraphs 数据集上进行评估。
Mar, 2020
本文提出了一种新颖的潜变量循环神经网络架构,用于同时建模词序列和相邻句子之间的(可能潜在的)言语关系。它通过循环神经网络生成单个单词,并可以使用潜在变量表示言语关系。该模型可以使用既包括言语关系分类又包括词预测的训练目标,从而优于最先进的替代方案,它可以用于隐含语篇关系分类以及对话行为分类。在测试时间通过潜在言语关系求和,我们获得了一个获得语篇的语言模型,从而改进了一个强大的 LSTM 基线。
Mar, 2016
我们探索了一种基于特征的 LLM-prompting 方法来生成更丰富的引用文本,并一次生成多个引用以捕捉研究论文之间的复杂关系,通过专家评估研究我们发现,我们提出的特征对生成段落质量的影响具有很强的相关性,提示人们更喜欢高层次、抽象的引用和其中的过渡句来提供整体故事。
Feb, 2024
本研究使用了 15 种基本物质和社会关系对最近的文本引导图像生成模型 DALL-E2 进行了系统的经验性考察,发现只有大约 22%的图像与基本关系提示匹配。研究结果表明,当前的图像生成模型尚未掌握涉及简单对象和代理人的基本关系,本文从认知和计算两个角度,提出可能的改进方向。
Jul, 2022