使用图卷积神经网络编码句子进行语义角色标注
这篇研究论文介绍了一种简单有效的方法来将句法结构融入到神经注意力编码解码模型中,以实现机器翻译。文中使用了预测的源句子句法依赖树,用于生成敏感于句法周边的单词表示,以达到最佳效果。研究的实验结果表明,在英德翻译和英捷翻译方面的所有设置中,与其不考虑语法结构的版本相比,该方法均有显著的改善。
Apr, 2017
本论文首次将源句子的谓词-论元结构(即语义角色表示)信息融入神经机器翻译中,利用图卷积网络将语义偏差注入到句子编码器中,在英语-德语语言对上取得了BLEU分数上的提高。
Apr, 2018
本文探讨是否在神经网络中使用额外的句法特征表示对语义角色标注(SRL)有益,实验结果表明这有助于提高SRL的性能,并且在CoNLL-2005数据集上达到了新的最先进水平。
Jul, 2019
本文提出了一种基于所提出的关联记忆网络的新颖的语法无关的语义角色标注模型,利用标签已知的相关句子的跨句子注意力作为一种记忆进一步增强基于依存的语义角色标注,并且通过利用已知训练数据的注意力记忆,我们的模型取得了CoNLL-2009基准数据集上的最新成果,在增强SR L方面展示了一个新的有效研究方向,而不是利用外部资源,如预先训练的语言模型。
Aug, 2019
该文介绍了一种用于语义角色标注(SRL)的迭代优化方法及网络结构,通过建立非局部交互关系,有效提高了模型表现,在七种CoNLL-2009中取得了最优表现并在其中五种语言中的英语数据集上取得了最新的成果。
Sep, 2019
通过使用图卷积网络(GCNs)对成分结构进行编码,我们展示了如何使用GCNs来编码成分结构并在语义角色标注系统中实现句法信息。我们的SpanGCN通过使用GCN超过依赖树的模型进行评估,并在标准的CoNLL-2005,CoNLL-2012和FrameNet基准测试中证明了其有效性。
Sep, 2019
本文研究了如何有效地将句法知识融入语义角色标注(SRL)任务中,使用不同质量和表示的依赖树的不同编码方法,提出了一种句法增强的自注意模型,并与其他两种强基准方法进行了比较,并使用新发布的深度上下文化词表示进行了实验。实验结果表明,通过正确地融合高质量的句法信息,我们的模型在CoNLL-2009数据集的中文SRL任务中取得了新的最佳表现。
Oct, 2019
本文介绍了基于统一覆盖模型的跨度和基于单词的语义角色标注,并提出了一种多任务学习框架,其中包括基本SRL模块和依赖性解析器模块,通过该框架,我们使用外部句法表示得到了新的最先进的中文SRL良好结果。
Nov, 2019
本文提出了一种基于句子语义结构的图推理网络,用于多步问题回答,其在HotpotQA分散器设置基准测试中表现出与最新的最先进模型竞争的性能,可以学习跨段理推路径,找到支持事实和答案。
Oct, 2020
本文提出了一种新型的桥式结构特征和语义信息的汉语序列标注任务编码框架,并使用图卷积网络对其进行实现,实验结果表明,该模型可以有效提高汉语标注任务的性能。
Jun, 2023