本文提出了一种基于 FrameNet 的查询框架 ArGument Extractor with Definitions,该框架使用 FrameNet 中的框架和框架元素定义来查询文本中的参数,以指导模型学习标签的语义和加强参数之间的交互。实验证明,该框架在两个 FrameNet 数据集上的 F1 分数比先前的最新技术提高了 1.3,并且在零样本和少样本情况下具有较强的泛化能力。
Dec, 2022
本研究提出了一种基于帧语义的解析器,可以标记出 FrameNet 谓词的语义参数,通过一种强调回忆的基于 RNNs 的扩展,该基本系统在无需调用句法解析器的情况下实现了竞争性能;同时,作者还介绍了一种仅在训练时使用来自 Penn Treebank 的短语句法注释的方法,该方法旨在解决传统句法流水线的高成本问题,并实现了最先进的性能。
Jun, 2017
应用语言模型结构代替任务特定的监督并使用卷积图编码器通过显式引入语义解析提高 NLU 任务的性能。
Dec, 2020
基于 transformer-based 模型的多任务学习在框架语义解析中取得优越性能,并且在 PropBank SRL 解析上也表现优于现有最佳系统。
Oct, 2020
本文提出了一种基于知识引导的增量语义解析方法,通过构建帧知识图谱和帧语义图,将帧语义分析转化为增量图构建问题,以加强子任务之间的相互作用和参数之间的关系。实验结果表明,该方法在两个 FrameNet 数据集上的 F1-score 比当前最先进的方法提高了 1.7。
Jun, 2022
本文旨在通过提出数据增量方法来解决 FrameNet 在语义方面的短板,该方法通过利用现有的特定于框架的标注来自动标注未标注的同一框架的其他词汇单位。我们的基于规则的方法定义了姐妹词汇单位的概念,并为训练生成了特定于框架的增强数据。在 FrameNet 下的全文和词典注释下,我们展示了框架语义角色标注的实验结果,并证明了数据增加对于提高框架语义分析中的先前结果标识和参数识别至关重要,突显了自动资源创建对于改善模型的价值。
Sep, 2021
本文提出了一种新的方法,利用定义建模来介绍一种广义的 SRL 形式,即使用自然语言定义而非离散标签来描述谓词论元结构。经过实验证明, 这种灵活的模型不会牺牲性能。
本文介绍了一种基于高阶图结构的神经语义角色标注模型,能够显式地考虑包含谓词参数对之间交互的语义关系,实验结果表明,高阶结构学习技术对于强效的 SRL 模型是有益的,在 CoNLL-2009 基准测试中取得了新的最佳结果。
本文使用深度学习框架,通过实验探究了句法信息对神经语义角色标注 (SRL) 的重要性,发现在一定条件下,神经 SRL 模型仍能从句法信息中获益;并且,本文使用现有模型进行了全面的实证研究,量化了句法对神经 SRL 模型的重要性。
Sep, 2020
在 FrameNet 范例下,本文提出了一种基于注释投射的通用框架,它可以相对廉价地自动引发新语言中的角色语义标注。该框架利用了词汇和句法信息来设计投影模型,实验结果表明可以在英汉平行语料库中自动诱导具有高准确度的语义角色标注。
Jan, 2014