神经语义角色标注中的语法角色
本文探讨是否在神经网络中使用额外的句法特征表示对语义角色标注(SRL)有益,实验结果表明这有助于提高 SRL 的性能,并且在 CoNLL-2005 数据集上达到了新的最先进水平。
Jul, 2019
本文研究了如何有效地将句法知识融入语义角色标注(SRL)任务中,使用不同质量和表示的依赖树的不同编码方法,提出了一种句法增强的自注意模型,并与其他两种强基准方法进行了比较,并使用新发布的深度上下文化词表示进行了实验。实验结果表明,通过正确地融合高质量的句法信息,我们的模型在 CoNLL-2009 数据集的中文 SRL 任务中取得了新的最佳表现。
Oct, 2019
本研究关注于多语言语义角色标注(SRL)模型的开发,并围绕句法规则、上下文化词表示等因素展开了研究,提出了一种基于句法规则的剪枝方法,并在 CoNLL-2009 的七种语言基准测试中实现了状态 - of-the-art 的效果,并验证了深度增强表示对多语言 SRL 的有效性。
Sep, 2019
本文介绍了一个端到端的神经模型,它统一处理谓语消歧和参数标记,并通过使用双仿射评分器直接预测句子中所有给定单词对的语义角色标签,达到了比现有的支持语法的 SRL 系统更好的性能。
Aug, 2018
本文介绍了基于统一覆盖模型的跨度和基于单词的语义角色标注,并提出了一种多任务学习框架,其中包括基本 SRL 模块和依赖性解析器模块,通过该框架,我们使用外部句法表示得到了新的最先进的中文 SRL 良好结果。
Nov, 2019
本文针对英文和中文的语义角色标注进行了实证分析,并通过联合标签的转换方案,将 SRL 注释打包至依存树表示中,并证明该表示法有望进一步将句法方法结合到语义角色标注中。
Oct, 2020
本篇论文中介绍了一种用于词语语义角色标注的简单而准确的神经模型,该模型通过双向 LSTM 编码器的状态预测谓词论元依赖关系,即使没有任何语法信息,仅使用本地推理即可在英语上取得有竞争力的性能,然而,当自动生成词性标注作为输入时,它的性能明显优于所有先前的本地模型,并接近报告的英语 CoNLL-2009 数据集的最佳结果。我们还考虑了中文、捷克语和西班牙语,其中我们的方法也取得了有竞争力的结果。基于语法的解析器在领域外数据上不可靠,因此当在该设置中进行测试时,标准(即语法相关)的 SRL 模型受到了阻碍。我们的基于语法不可知的模型表现更健壮,这在标准的领域外测试集上得到了最佳的报告结果。
Jan, 2017
本文探讨了在 NLP 任务中,如何最有效地使用外部句法信息来完成语义角色标注任务,通过使用三种不同的句法解析编码和注入到基于神经元素标注的 SRL 模型中的三种不同方法的评估,表明将从属关系作为输入特征可以最大限度地提高性能,并在 CoNLL05 和 CoNLL12 基准测试中实现了最新的非集成 SRL 模型的最新成果。
Jun, 2019
本文研究语义分析在外语(L2)环境下的应用,以语义角色标注(SRL)为案例任务、以学习汉语为案例语言。文章手动为一组学习者文本注释语义角色并建立标准数据,使用新数据评估三种现有的 SRL 系统,探究如何成功地处理学习汉语的 SRL 任务。接着,本文将引入一种基于协议的模型来探索大规模 L2-L1 并行数据中的语义连贯性信息,以增强 SRL 的学习。实验表明,新模型可以在学习文本上实现 72.06 的 F-score,比最佳基准提高了 2.02 个百分点。
Aug, 2018
本文提出了一种新的方法,利用定义建模来介绍一种广义的 SRL 形式,即使用自然语言定义而非离散标签来描述谓词论元结构。经过实验证明, 这种灵活的模型不会牺牲性能。
Dec, 2022