ACLMar, 2020

递归非自回归图到图转换器用于具备迭代优化的依存句法分析

TL;DR本文提出了一种基于递归非自回归图到图变换器 (RNGTr) 的架构,用于任意图的迭代细化,通过应用非自回归图到图变换器的递归应用,并将其应用于句法依赖解析上。我们使用使用 BERT 预训练的细化模型展示了 RNGTr 的强大和有效性。我们还介绍了一款类似于我们优化模型的非递归解析器 Syntactic Transformer (SynTr)。RNGTr 可以提高 13 种语言的各种初始解析器的准确性,包括 Universal Dependencies Treebanks,英语和中文 Penn Treebanks,以及德语 CoNLL2009 语料库,并且在所有测试数据上显著超越了最新的最优结果的表现。