语义角色标注引导下的多轮对话重述
本文研究了如何有效地将句法知识融入语义角色标注(SRL)任务中,使用不同质量和表示的依赖树的不同编码方法,提出了一种句法增强的自注意模型,并与其他两种强基准方法进行了比较,并使用新发布的深度上下文化词表示进行了实验。实验结果表明,通过正确地融合高质量的句法信息,我们的模型在 CoNLL-2009 数据集的中文 SRL 任务中取得了新的最佳表现。
Oct, 2019
本研究关注于多语言语义角色标注(SRL)模型的开发,并围绕句法规则、上下文化词表示等因素展开了研究,提出了一种基于句法规则的剪枝方法,并在 CoNLL-2009 的七种语言基准测试中实现了状态 - of-the-art 的效果,并验证了深度增强表示对多语言 SRL 的有效性。
Sep, 2019
该文介绍了一种用于语义角色标注(SRL)的迭代优化方法及网络结构,通过建立非局部交互关系,有效提高了模型表现,在七种 CoNLL-2009 中取得了最优表现并在其中五种语言中的英语数据集上取得了最新的成果。
Sep, 2019
本研究提出了一种端到端的 SRL 方法,它不仅消除了特征提取的需要,而且在实际情况下面对新样本的时候也表现出优于现有方法 16% (83.16) 的准确性改进。
Jun, 2023
本文的研究目的是让语义角色标注(SRL)任务通过指定动词谓词和其相应的语义角色来增强文本理解和推理,并针对深度学习模型,加入语义角色标注以获得更细粒度的语义。经过广泛的实验证明,所提出的语义学习能够在各项挑战性的自然语言理解任务中显著提高现有模型的性能,包括已经用于最新进展的预训练语言模型。
Sep, 2018
本文提出了一种基于自我注意力机制的新型神经网络架构以实现语义角色标注,能够解决循环神经网络在处理结构信息和长距离依赖时面临的主要挑战,其在 CoNLL 2005 和 CoNLL 2012 语义角色标注竞赛中的 F1 得分分别超过了之前的最佳成绩。此外,我们的模型计算效率高,单个 Titan X GPU 可以处理 50000 个标记每秒。
Dec, 2017
本文探讨是否在神经网络中使用额外的句法特征表示对语义角色标注(SRL)有益,实验结果表明这有助于提高 SRL 的性能,并且在 CoNLL-2005 数据集上达到了新的最先进水平。
Jul, 2019
本文介绍了一个端到端的神经模型,它统一处理谓语消歧和参数标记,并通过使用双仿射评分器直接预测句子中所有给定单词对的语义角色标签,达到了比现有的支持语法的 SRL 系统更好的性能。
Aug, 2018
本文探讨了一种将语义角色标注作为序列到序列过程的新方法,使用加强的基于注意力机制和复制机制的模型,对英文数据进行 PropBank SRL,证明该模型可以解决英语数据上的 SRL 标注任务,但需要添加更多的结构解码约束来使该模型真正具有竞争力。
Jul, 2018