重新思考事件编码管道与提示蕴含
通过比较不同形式的提示符来表示事件类型,并开发一种统一框架来结合特定于事件类型的提示符,用于监督、少量样本和零样本事件检测,实验结果表明,一种定义明确、全面的事件类型提示符可以显著提高事件检测的性能,特别是在注释数据匮乏 (少样本事件检测) 或不可用 (零样本事件检测) 的情况下。通过利用事件类型的语义特点,我们的统一框架相对于之前的最先进的基线提高了高达 24.3%的 F-score。
Apr, 2022
本文提出了 Prompt-based Text Entailment (PTE) 低资源命名实体识别技术,将命名实体识别作为文本蕴含任务,并使用 Pre-trained Language Models 和 entity type-specific prompts 来获得高性能。通过在 CoNLL03 数据集和 MIT Movie 及 Few-NERD 数据集上进行的实验,结果表明该方法 PTE 在低资源场景下的表现优于微调的对照组。
Nov, 2022
本文提出了一种无监督事件抽取流程,使用先进的预训练语言模型并匹配语义,有效将事件映射到预定义的事件类型上,最终表现出色,成功地将 83% 的触发器和 54% 的参数映射到了正确类型。
Dec, 2020
本文使用全局约束和提示来有效地处理事件参数分类,而无需任何标注和特定任务的训练,使用新的提示模板,可以轻松适应所有事件和参数类型,并且在多个数据集上实验证明了该方法的有效性。
Feb, 2023
本文提出了一种基于语料库的开放领域事件类型归纳方法,该方法使用聚类 <谓词意义,对象头> 对每种事件类型进行表示,并利用选择显著谓词和对象头、利用动词意义词典消歧谓词语义、联合嵌入和聚类 <谓词意义,对象头> 对事件类型进行潜在球面空间的建模。多项实验表明,该方法能够有效地发现具有重要意义和高质量的事件类型。
Sep, 2021
本文提出了一种无触发词的事件检测模型,通过阅读理解和提示学习将事件检测转化为两个塔模型,在 ACE2005 和 MAVEN 的两个事件检测基准数据集上,实验结果表明,与现有的基于触发词和无触发词的方法相比,所提出的方法可以取得竞争性的性能。
Jun, 2023
在本研究中,我们提出了 PromptCL,这是一种用于事件表示学习的新框架,能够有效地发挥预训练语言模型 (PLMs) 综合捕捉短事件文本语义的能力。PromptCL 利用了从提示学习中借鉴的 Prompt 模板,通过在对比学习中扩展输入文本,提供事件组成部分的结构概述,从而提高事件表示学习的效果。此外,我们提出了主谓宾 (SPO) 的词序和面向事件的掩码语言建模 (EventMLM) 来训练 PLMs 理解事件组成部分之间的关系。实验结果表明,PromptCL 在事件相关任务上优于最先进的基准方法,并且我们进行了彻底的分析,证明使用提示可以提高事件表示的泛化能力。
Apr, 2024
基于预训练语言模型的多任务提示学习框架(TemPrompt)结合了提示调整和对比学习来解决事件的演变以及任务请求的问题,实验结果表明在标准和少样本情况下,TemPrompt 在多个指标下优于其他基准模型,并通过案例研究验证了在众包场景中的有效性。
Jun, 2024
本文通过比较两种不同的提示策略,即基于名称的提示和基于本体的提示,揭示了本体提示方法在零样本事件论证提取中的优势,并提出了一种因果干预的去偏方法。实验表明,经过去偏处理后的基准模型不仅更为有效和鲁棒,而且在对抗攻击方面有显着的改进。
Oct, 2022
本文提出了一种双向迭代 prompt-tuning 方法用于事件论元提取,将该任务视为填空式任务以充分利用实体信息和预训练语言模型(PLMs),通过引入上下文实体的论据角色来探索事件论证交互,并利用角色标签语义知识构建语义化言化器并为 EAE 任务设计三种模板,在 ACE 2005 英文数据集上进行有效性实验。
Oct, 2022