本文提出了一种基于 Capsule Networks 的 Semantic role labeling 方法,通过迭代更新 proposition embeddings 和结构预测,可以在维持高效的推断的同时实现 argument 之间的 non-local interaction,在 7 种 CoNLL-2019 语言中有显著的优势,在 5 种语言中(包括英语)的 dependency SRL 方面取得了最先进的结果,能够根据角色数量的限制来修正错误的结果,从而更加灵活地捕捉语境的直觉。
Oct, 2019
本文介绍了一个端到端的神经模型,它统一处理谓语消歧和参数标记,并通过使用双仿射评分器直接预测句子中所有给定单词对的语义角色标签,达到了比现有的支持语法的 SRL 系统更好的性能。
Aug, 2018
本文提出了一种新的方法,利用定义建模来介绍一种广义的 SRL 形式,即使用自然语言定义而非离散标签来描述谓词论元结构。经过实验证明, 这种灵活的模型不会牺牲性能。
Dec, 2022
本文提出了一种将 SRL 简化为树解析任务的方法,将平坦的论点跨度视为潜在子树,并配备新颖的 Span-constrained TreeCRF,实现了优于以往所有语法不可知作品的结果,达到了最新的最先进状态。
Oct, 2021
该研究提出使用语义角色标注为多轮对话改写提供指导,达到更好的性能,实验证明这可明显提高 RoBERTa 模型性能。
Oct, 2020
该研究提出了一种基于 Pointer Networks 的过渡型语义角色标注方法,该方法可以在不需要额外模块或语法信息的情况下,在单次从左到右经过中完整处理语句,其时间复杂度是 $O (n^2)$,并且在大多数 CoNLL-2009 共享任务的语言上实现了迄今为止最佳性能。
May, 2022
本研究关注于多语言语义角色标注(SRL)模型的开发,并围绕句法规则、上下文化词表示等因素展开了研究,提出了一种基于句法规则的剪枝方法,并在 CoNLL-2009 的七种语言基准测试中实现了状态 - of-the-art 的效果,并验证了深度增强表示对多语言 SRL 的有效性。
Sep, 2019
本文提出了一种基于自我注意力机制的新型神经网络架构以实现语义角色标注,能够解决循环神经网络在处理结构信息和长距离依赖时面临的主要挑战,其在 CoNLL 2005 和 CoNLL 2012 语义角色标注竞赛中的 F1 得分分别超过了之前的最佳成绩。此外,我们的模型计算效率高,单个 Titan X GPU 可以处理 50000 个标记每秒。
Dec, 2017
本文提出一种统一的、端到端的模型,用于同时处理依存和跨度语义角色标注任务,并使用统一的参数学习预测谓词和论元。在两种语义表示形式中,本模型实现了新的最先进的结果。
Jan, 2019
本文探讨是否在神经网络中使用额外的句法特征表示对语义角色标注(SRL)有益,实验结果表明这有助于提高 SRL 的性能,并且在 CoNLL-2005 数据集上达到了新的最先进水平。
Jul, 2019