基于增强语法自注意力的语义角色标注
本文探讨是否在神经网络中使用额外的句法特征表示对语义角色标注(SRL)有益,实验结果表明这有助于提高 SRL 的性能,并且在 CoNLL-2005 数据集上达到了新的最先进水平。
Jul, 2019
本文提出了一种基于自我注意力机制的新型神经网络架构以实现语义角色标注,能够解决循环神经网络在处理结构信息和长距离依赖时面临的主要挑战,其在 CoNLL 2005 和 CoNLL 2012 语义角色标注竞赛中的 F1 得分分别超过了之前的最佳成绩。此外,我们的模型计算效率高,单个 Titan X GPU 可以处理 50000 个标记每秒。
Dec, 2017
本研究提出了一种基于语言学的自我 - 注意力神经网络(LISA),它利用多头自我注意力和跨依存句法分析,词性标注,谓词检测和语义角色标注的多任务学习,无需显式地利用语言特征,只需使用标记作为输入进行处理,从而提高语义角色标注的准确性。
Apr, 2018
本文使用深度学习框架,通过实验探究了句法信息对神经语义角色标注 (SRL) 的重要性,发现在一定条件下,神经 SRL 模型仍能从句法信息中获益;并且,本文使用现有模型进行了全面的实证研究,量化了句法对神经 SRL 模型的重要性。
Sep, 2020
本研究关注于多语言语义角色标注(SRL)模型的开发,并围绕句法规则、上下文化词表示等因素展开了研究,提出了一种基于句法规则的剪枝方法,并在 CoNLL-2009 的七种语言基准测试中实现了状态 - of-the-art 的效果,并验证了深度增强表示对多语言 SRL 的有效性。
Sep, 2019
本文介绍了基于统一覆盖模型的跨度和基于单词的语义角色标注,并提出了一种多任务学习框架,其中包括基本 SRL 模块和依赖性解析器模块,通过该框架,我们使用外部句法表示得到了新的最先进的中文 SRL 良好结果。
Nov, 2019
本文的研究目的是让语义角色标注(SRL)任务通过指定动词谓词和其相应的语义角色来增强文本理解和推理,并针对深度学习模型,加入语义角色标注以获得更细粒度的语义。经过广泛的实验证明,所提出的语义学习能够在各项挑战性的自然语言理解任务中显著提高现有模型的性能,包括已经用于最新进展的预训练语言模型。
Sep, 2018
本文介绍了一个端到端的神经模型,它统一处理谓语消歧和参数标记,并通过使用双仿射评分器直接预测句子中所有给定单词对的语义角色标签,达到了比现有的支持语法的 SRL 系统更好的性能。
Aug, 2018
本文针对英文和中文的语义角色标注进行了实证分析,并通过联合标签的转换方案,将 SRL 注释打包至依存树表示中,并证明该表示法有望进一步将句法方法结合到语义角色标注中。
Oct, 2020