Stanford 依存句法分析方法的实证比较
该论文介绍了 Stanford 的 CoNLL 2018 UD 共享任务中的系统,这是一个完整的神经管道系统,可以将原始文本作为输入,并执行共享任务所需的所有任务,从分词和句子分割到词性标注和依赖关系解析,并通过广泛的消融研究展示了不同的模型组件的有效性。
Jan, 2019
该研究描述了一种基于头词间依赖概率的新型统计解析器,将标准的二元概率估计技术扩展到计算词对间的依赖概率,测试表明该方法至少与 SPATTER(Magerman 95,Jelinek et al 94)相当,模型的简单性意味着其在不到 15 分钟的时间内可以从 40,000 个句子中训练完成;使用 beam search 策略可以提高解析速度到超过 200 个句子 / 分钟,而准确性损失很小。
May, 1996
本研究提出了一种新的基于依存的混合树模型,将自然语言转换成机器可解释的含义表示,并通过在标准多语言 GeoQuery 数据集上进行的大量实验证明,我们的方法能够在多种语言上实现最先进的性能。
Sep, 2018
本文提出一种新的 O (n^3) 依赖语法分析算法,并开发了三种不同的随机化方式。我们提出了词汇亲和模型、意义标注模型和生成模型。通过在训练文本上评估三种模型的分析性能并给出了初步的实证结果,其中生成模型在分析性能上表现显著优于其他模型,并且在词性标注方面表现同样出色。
Jun, 1997
本文提出了一种用于自动检测依赖解析语料库中注释不匹配的方法,以及三种自动转换注释不匹配的方法,并通过重新训练两种依赖解析器的实验证明应用这些方法可以明显地提高性能。
Jan, 2022
本文介绍和评估了不同的方法将 Stanford Typed Dependencies (SD) 和 Penn-style 组分树的黄金标准语料库数据转化为最新的英语通用依赖关系 (UD2.2)。结果表明,多种语体下,纯 SD 到 UD 的转换具有高精度,只有 1.5% 的错误率,但如果访问纯语法树之外的注释,如实体类型和指代消解这样的注释,可以进一步提高精度,错误率可以降至不到 0.5%。我们表明,基于成分的转换使用 CoreNLP (自动命名实体识别) 在所有语体中表现不佳,包括在使用黄金成分树时,主要是由于短语语法功能的不充分规范化。
Sep, 2019
用单个深度神经网络实现的依赖关系解析器,无需词性标注即可直接生成依存关系及其标签,经过多任务学习和适当的正则化和额外监督训练,在没有语言特征的情况下,在斯拉夫语 UD 树库中表现为最高准确性。
Sep, 2016