CoNLL 2017 共享任务的 SyntaxNet 模型
该论文介绍了 Stanford 的 CoNLL 2018 UD 共享任务中的系统,这是一个完整的神经管道系统,可以将原始文本作为输入,并执行共享任务所需的所有任务,从分词和句子分割到词性标注和依赖关系解析,并通过广泛的消融研究展示了不同的模型组件的有效性。
Jan, 2019
介绍了 Uppsala 系统,它是一个由三个部分构成的流水线,可以用于 CoNLL 2018 共享任务的普遍依赖语法分析。通过使用多个树库对同一语言或密切相关语言训练模型,我们极大地减少了模型数量,最终在公开测试上获得了 LAS 和 MLAS 指标的第 7 位排名以及词分割、普遍 POS 标签和形态特征的最高分。
Sep, 2018
本研究提出了一种新的基于依存的混合树模型,将自然语言转换成机器可解释的含义表示,并通过在标准多语言 GeoQuery 数据集上进行的大量实验证明,我们的方法能够在多种语言上实现最先进的性能。
Sep, 2018
提出了一种基于转换的方法,通过训练单个模型,可以有效地解析任何输入句子,支持连续 / 投影和不连续 / 非投影的句法结构,并证明了这两种句法形式可以在训练过程中互相受益,提高了在多个基准测试中的准确性,如英语和中文 Penn 树库以及德语 NEGRA 和 TIGER 数据集。
Sep, 2020
本篇论文中介绍了一种用于词语语义角色标注的简单而准确的神经模型,该模型通过双向 LSTM 编码器的状态预测谓词论元依赖关系,即使没有任何语法信息,仅使用本地推理即可在英语上取得有竞争力的性能,然而,当自动生成词性标注作为输入时,它的性能明显优于所有先前的本地模型,并接近报告的英语 CoNLL-2009 数据集的最佳结果。我们还考虑了中文、捷克语和西班牙语,其中我们的方法也取得了有竞争力的结果。基于语法的解析器在领域外数据上不可靠,因此当在该设置中进行测试时,标准(即语法相关)的 SRL 模型受到了阻碍。我们的基于语法不可知的模型表现更健壮,这在标准的领域外测试集上得到了最佳的报告结果。
Jan, 2017
本研究提出了一种新型的神经网络模型,该模型可以同时学习 POS 标记和基于图的依赖解析。该模型使用双向 LSTM 来学习两个任务共享的特征表示,从而解决了特征工程问题。该模型在 19 种语言的通用依赖关系项目上进行了广泛的实验,结果表明我们的模型优于基于神经网络的最新关于 POS 标记和基于转移的依赖解析的程序,从而取得了新的最优性能。
May, 2017
本文提出了一种基于 DRNN 的序列到树的 NMT 模型 (称为 Seq2DRNN),该模型在树结构解码中结合了序列编码器和句法感知机制,并使用语法结构信息从而能够生成更流畅的翻译结果,同时可以进行成分句法分析。
Sep, 2018
用单个深度神经网络实现的依赖关系解析器,无需词性标注即可直接生成依存关系及其标签,经过多任务学习和适当的正则化和额外监督训练,在没有语言特征的情况下,在斯拉夫语 UD 树库中表现为最高准确性。
Sep, 2016
通过使用 pointer networks 实现的转移句法分析器在依赖句法分析方面已经成为最新的技术水平,我们提出了一种基于指针网络的转移系统,可以直接生成标记有方向无环图并实现语义依赖分析。同时,我们使用从 BERT 提取的深层上下文化的词嵌入来增强我们的方法。这一结果不仅超越了所有现有的基于转移的模型,而且还匹配了 SemEval 2015 任务 18 英语数据集上先前最先进的基于图形的解析器的最佳完全监督准确率。
May, 2020