将事件抽取视为问答任务,实现端到端的事件参数提取,相比现有方法有显著提升。同时,也能够在零样本学习情况下提取训练期间未见过的事件参数角色。
Apr, 2020
通过利用强化学习方法,我们提出了四个评估问题质量的标准,并在基于问题回答的事件提取中生成了流畅、具有概括性和上下文相关性的问题,从而为 QA 模型提供了明确的指导。在 ACE 和 RAMS 数据集上进行的广泛实验证实了我们方法的有效性,同时也展示了它在训练数据有限的情况下的鲁棒性。
May, 2024
本文提出了一种论据提取的检索增强生成问答模型,结合了生成方法和检索技术,从而提高了事件论据提取的性能,并提出了一种基于聚类的样本采样策略,以进一步提高模型在 few-shot 学习中的表现。
Nov, 2022
本文提出了一种问答方法来提取文档级别的事件 - 论证结构,使用手动定义的模板和生成型 Transformer 自动生成问题,并使用数据增强策略和迁移学习提高抽取结果的准确性,同时对最佳模型的错误进行详细分析。
Apr, 2024
本论文针对问题回答和问题生成两个任务之间内在联系,提出一个联合训练框架,使用序列到序列模型和循环神经网络模型,通过概率相关性指导训练过程来提高两个任务的性能,实验证明该框架能够显著提高问题回答和问题生成两个任务的表现。
Jun, 2017
本文提出了一种文档级神经事件关系抽取模型,将其作为一种条件生成的过程,并使用事件模板。此外,作者构建了一个新的包含完整事件和共指注释的文档级事件抽取数据集 WikiEvents。研究结果表明,该模型在事件论证抽取方面取得了较好的性能,并展示了零样本事件提取框架的可移植性。
Apr, 2021
本文介绍了一种新颖的方法,利用预训练的生成模型来解决抽取式問答任务,通过生成与回答的上下文标记或句子相对应的索引,实现了在多个抽取式問答数据集上优于现有 state-of-the-art 模型的卓越性能。
Nov, 2023
我们提出了一种基于查询的生成模型,用于解决问题生成和问题回答两个任务, 在查询理解方面,该模型使用经典的编码器 - 解码器框架,通过与多个角度的文章进行匹配来执行查询理解。在进行培训时,我们利用政策梯度强化学习算法来克服暴露偏差,这是由于交叉熵损失的序列学习而引起的主要问题。
Sep, 2017
通过探索基于问题回答和模板填充的技术,研究了本文中的本体转移方法对事件参数提取的有效性,以及小型模型训练在适当的源本体上可以实现零射击性能优于 GPT-3.5 或 GPT-4 的挑战。
本文提出了多种问题生成策略,用于文档级事件论证提取。这些策略不需要人工参与,生成的问题既有非上下文化的问题,也有基于感兴趣事件和文档的上下文化问题。实验结果表明,将非上下文和上下文问题相结合是有益的,特别是当事件触发器和论证出现在不同的句子中。我们的方法没有特定于语料库的组件,具体而言,问题生成策略可以在不同的语料库中进行转移。我们还对我们最佳模型最常见的错误进行了定性分析。