EtriCA: 事件触发的上下文感知故事生成,跨注意力增强
我们引入了一种新颖的神经生成模型 EtriCA,它通过采用交叉注意机制将上下文特征映射到事件序列上,通过残差映射增强了生成故事的相关性和连贯性。我们进一步采用了一个后训练框架对大规模书籍语料库进行知识增强,使得 EtriCA 能够适应更广泛的数据样本。大量实验证明了我们的模型在故事生成方面的卓越性能,并显示了它在改善生成叙述质量方面的有效性。
Nov, 2023
本文提出了一种预训练的名为 ClarET 的通用事件感知上下文到事件转换器,以解决许多事件中心推理任务中上下文关联事件的生成问题。该方法具有很强的一般适用性和有效性。
Mar, 2022
本文介绍了一种新的事件因果识别训练数据增强方法,该方法采用双重学习框架和基于知识引导的方法生成新的句子,实验表明该方法在两个基准测试数据集上表现优于之前的方法。
Jun, 2021
利用大型语言模型 (LLM) 的最新进展,我们提出了首个事件因果识别方法,从 GPT 中设计特定提示以提取事件因果关系。根据 GLUCOSE 数据集中的人工注释事件因果关系,我们的技术表现与监督模型相当,同时易于推广到不同类型和长度的故事。提取的因果关系在故事质量评估上带来了 5.7% 的提升和 8.7% 的故事视频文本对齐改进,我们的发现表明事件因果在计算机故事理解中有巨大的潜力。
Nov, 2023
本文提出了一种端到端的事件共指方法 ——E3C 神经网络,它可以联合建模事件检测和事件共指解析任务,并自动从原始文本中学习抽取特征。在我们的 E3C 神经网络中,进一步提出了一种类型引导的事件共指机制。实验证明,我们的方法在两个标准数据集上实现了新的最佳性能。
Sep, 2020
探索在自动化故事生成方面的事件表示,技术预处理为事件序列,并将问题分解为连续事件与事件的自然语言句子生成,比较不同事件表示对事件的继承和文本生成的影响。
Jun, 2017
基于预训练语言模型(PLMs),事件共指消解(ECR)系统通过聚类跨文档的语义指示共指事件展现出了出色的性能;然而,现有系统在输入提及对中展现出对 “触发词词汇匹配” 的过度依赖;我们基于结构因果模型(SCM)对基线 ECR 系统的决策过程进行形式化,旨在识别 ECR 任务中的伪因果关联(即依据);借助反事实数据增强的去偏方法,我们开发了一种以依据为中心的反事实数据增强方法,结合了 LLM 循环;该方法专门针对 ECR 系统的两两输入,在触发词和上下文上进行直接干预,以减少伪关联并强调因果关系;我们的方法在三个流行的跨文档 ECR 基准测试上取得了最先进的性能,并在领域外场景中展现出稳健性。
Apr, 2024
本文提出了一种多粒度对比迁移学习的异构图交互模型,用于零样本跨语言文档级事件因果识别,模型在多语言环境中相比之前的最先进模型提高了 9.4% 的平均 F1 得分,并且在整体性能方面,超过了 GPT-3.5 少样本学习 24.3% 的性能。
Mar, 2024