- 基于模型预测的有意识事件提取:分解、增强和提取模式
本研究聚焦于利用大型语言模型(LLMs)进行自动事件提取,介绍了一种新方法以解决幻觉问题,通过将任务分解为事件检测和事件参数提取,并将动态结构感知的增强检索示例集成到为每个具体查询定制的提示中,从而扩展和适应检索增强生成等先进提示技术。评估 - DEGAP: 基于模板的事件论元提取模型的双事件导向自适应前缀与槽查询
DEGAP 提出了解决事件论元提取中的挑战的方法,通过引入对不同事件实例和模板学习信息的双重前缀以及基于目标事件引导前缀的自适应门控机制,该方法在四个数据集上达到了最新的最优性能。
- 超越单事件提取:迈向高效的文档级多事件论证提取
提出了一种多事件论证提取模型 DEEIA (Dependency-guided Encoding and Event-specific Information Aggregation),该模型能够同时从文档中提取所有事件的论证,并能够在四个 - ACL小模型仍然是有效的跨领域论据提取器
通过探索基于问题回答和模板填充的技术,研究了本文中的本体转移方法对事件参数提取的有效性,以及小型模型训练在适当的源本体上可以实现零射击性能优于 GPT-3.5 或 GPT-4 的挑战。
- ACL生成文档级事件论点提取的非语境化和语境化问题
本文提出了多种问题生成策略,用于文档级事件论证提取。这些策略不需要人工参与,生成的问题既有非上下文化的问题,也有基于感兴趣事件和文档的上下文化问题。实验结果表明,将非上下文和上下文问题相结合是有益的,特别是当事件触发器和论证出现在不同的句子 - 通过层次建模和逐对改进释放 LLMs 在事件论证提取中的潜力
本研究提出了一种基于开源大型语言模型(LLMs)的层次化框架 ULTRA,用于在文档级别进行事件参数抽取,该方法相较于强监督模型和 ChatGPT,在精确定位事件参数范围、减轻位置偏见等方面表现优越,并且在精确匹配(EM)指标上提高了 9. - MAVEN-Arg: 全方位事件理解数据集的事件论证注释
MAVEN-Arg 是一个全方位支持事件理解的数据集,它覆盖了事件检测、事件参数提取和事件关系提取,并提供了全面的架构、大规模数据和详尽的标注,对于细调的事件参数提取模型和大型语言模型均具有挑战,同时还展示了潜在应用之一,即未来事件预测。
- EMNLP从简单到复杂:一个逐步进行的框架,用于文档层面的信息论证提取
基于文档的事件论证提取(EAE)需要从单个文档中提取多个事件的论证。我们提出了一个简单到复杂的渐进框架,通过计算每个事件的难度,并按照简单到复杂的顺序进行提取,以提供更可靠的记忆。在 WikiEvents 上的实验证明了我们的模型在 F1 - ACL利用语境线索和角色相关性增强文档级事件论元抽取
本文提出了一种 SCPRG(Span-trigger-based Contextual Pooling and latent Role Guidance)模型,它包含两个新颖有效的模块,用于解决文档级事件论证提取的问题,并在公共数据集上表现 - OmniEvent: 事件全面、公正且易于使用的工具包
事件理解工具 OmniEvent 实现了全面性、公平性和易用性,支持主流建模范式并处理 15 个广泛使用的英文和中文数据集,提供现成的模型和模块化框架,方便用户实施和评估新的事件理解模型。
- ACL细节决定成败:事件抽取评价的陷阱
本论文旨在检查事件提取(EE)评估的可靠性,并确定三个主要问题:数据预处理差异,输出空间差异和缺乏管道评估。通过综合元分析和实证实验,我们展示了这些问题的显著影响,并提出了一系列解决方案,包括指定数据预处理、标准化输出,提供管道评估结果。为 - ACL重新审视事件论元提取:当 EAE 模型意识到事件共现时,是否能学得更好?
本文主要介绍了通过利用事件共现特性可以提高事件提取以及事件参数提取质量,提出了一种基于表格生成的非自回归框架 TabEAE,并在 4 个数据集上进行了 3 种不同的训练推理方案实验,结果表明该方法在 4 个数据集上均达到了最优的性能表现。
- ACLAMPERE: 面向 AMR 的基于生成的事件论元抽取前缀模型
本文提出了 AMPERE 模型来提高事件论元提取(EAE)的性能,该模型引入了抽象的语义表示(AMR)信息,并在每一层生成 AMR 感知的前缀,可有效克服自然语言和 AMR 的异构性,从而在 ACE2005 和 ERE 数据集上取得了显著的 - EMNLP检索辅助生成式问答用于事件论元抽取
本文提出了一种论据提取的检索增强生成问答模型,结合了生成方法和检索技术,从而提高了事件论据提取的性能,并提出了一种基于聚类的样本采样策略,以进一步提高模型在 few-shot 学习中的表现。
- EMNLP双向迭代 Prompt 调整用于事件论元提取
本文提出了一种双向迭代 prompt-tuning 方法用于事件论元提取,将该任务视为填空式任务以充分利用实体信息和预训练语言模型(PLMs),通过引入上下文实体的论据角色来探索事件论证交互,并利用角色标签语义知识构建语义化言化器并为 EA - Code4Struct: 自然语言生成少样本结构化预测代码
Code4Struct 利用 LLM 的 text-to-structure 翻译能力解决了 NLP 中的结构预测任务。将 PL 与 NLP 问题类比,Code4Struct 通过生成代码处理 EAE 任务,仅使用 50 个训练实例即可超越 - 基于因果干预的提示去偏置事件论元抽取
本文通过比较两种不同的提示策略,即基于名称的提示和基于本体的提示,揭示了本体提示方法在零样本事件论证提取中的优势,并提出了一种因果干预的去偏方法。实验表明,经过去偏处理后的基准模型不仅更为有效和鲁棒,而且在对抗攻击方面有显着的改进。
- ACL文档级论证抽取的动态全局内存
本文采用新型全局神经生成框架,构建文档存储器记录上下文事件信息,并利用它来隐式和显式地协助后续事件的参数解码,以解决从新闻文章中提取事件信息的挑战性问题,并且相比于之前的方法表现更出色并且对具有限制解码设计的对抗性注释样例更加稳健。
- Few-Shot Document-Level Event Argument Extraction
本文研究如何在文档级别抽取跨句子传播的事件参数,提出了 FewDocAE 基准,介绍了在 Few-Shot 学习环境下采用先进的神经模型进行实验的基线结果。由于学习过程限制在非常少的例子上,这是一项具有挑战性的任务。希望该基准能够鼓励更多相 - COLING一种多格式迁移学习模型,用于事件论元提取,基于变分信息瓶颈
本文介绍了一种多格式迁移学习模型,包含变分信息瓶颈,以提高事件论元提取的性能。该模型可以学习共享和特定于格式的知识,并使用变分信息瓶颈来消除噪声,从而在三个基准数据集上取得了最新的性能。