Yara Parser: 一个快速准确的依存句法分析器
该研究描述了一种基于头词间依赖概率的新型统计解析器,将标准的二元概率估计技术扩展到计算词对间的依赖概率,测试表明该方法至少与 SPATTER(Magerman 95,Jelinek et al 94)相当,模型的简单性意味着其在不到 15 分钟的时间内可以从 40,000 个句子中训练完成;使用 beam search 策略可以提高解析速度到超过 200 个句子 / 分钟,而准确性损失很小。
May, 1996
通过依存句法分析技术,我们在低资源语言乌尔都语的解析中取得了重要进展,并使用复杂的特征模型和 Nivreeager 算法,获得了一定准确率并评估了解析器的错误。
Jun, 2024
使用多语言模型进行依赖解析,通过使用多语言单词聚类和嵌入,令解析器能够在多种语言中进行有效解析,同时基于语言普遍规律和类型相似性实现跨语言推断,从而使其能够更有效地从有限的注释中进行学习。
Feb, 2016
用单个深度神经网络实现的依赖关系解析器,无需词性标注即可直接生成依存关系及其标签,经过多任务学习和适当的正则化和额外监督训练,在没有语言特征的情况下,在斯拉夫语 UD 树库中表现为最高准确性。
Sep, 2016
本研究介绍了 Baidu 依存分析器(DDParser),一个新的中文依存分析器,它是基于大规模手动标注数据集 ——Baidu 中文树库(DuCTB)训练的。DDParser 使用基于图的双仿射解析器,并对中文数据集的特征进行了调整,采用两个测试集测试,取得了 92.9%和 86.9%的标记连接分数(LAS),并取得了最先进的结果,并在 https URL 公开发布。
Sep, 2020
该论文介绍了 Stanford 的 CoNLL 2018 UD 共享任务中的系统,这是一个完整的神经管道系统,可以将原始文本作为输入,并执行共享任务所需的所有任务,从分词和句子分割到词性标注和依赖关系解析,并通过广泛的消融研究展示了不同的模型组件的有效性。
Jan, 2019
探讨如何在 RNN 依赖解析器(用于英语)中利用仅在训练期间可用的注视跟踪数据,即推理时间不使用聚合或令牌级注视特征。为此,我们训练了一个多任务学习模型,它将句子解析为序列标签,并利用注视特征作为辅助任务。我们的方法还学习如何从不相交的数据集中训练,即它可以用于测试已经收集的注视特征是否有助于提高在新的非注视注释树库上的性能。精度增益虽然不大但仍是积极的,表明这种方法是可行的。它可以作为一个第一步,朝着能够更好地利用注视跟踪数据或其他仅在训练句子时可用的补充信息的体系结构,可能导致在句法解析中的性能改进。
Sep, 2019
本文重新审视了 Cer 等人(2010)提出的一个问题:在获得 Stanford 依赖性方面,准确性与速度之间的权衡是什么?我们还探讨了输入表示对这种权衡的影响:词性标记、替代依赖性表示作为输入以及单词的分布表示。我们发现,直接依赖解析是一种比过去更可行的解决方案。
Apr, 2014