基于最小特征集的转移依存句法分析的快速准确解码和全局训练
通过将转移型句法分析器的动态规划实现与最小集的双向 LSTM 功能相结合,Shi、Huang 和 Lee (2017) 获得了英语和汉语依存句法分析最先进的结果,但受限于投影分析。在本文中,我们通过提供 MH_4 算法的第一个实际实现,扩展了他们的方法以支持非投影性,在非投影性树库上具有非常高的覆盖率,并简化该算法以适应最少的转移型特征集。我们因此获得了非投影性转移型分析的全局解码的第一个实现,并证明它在解析一些高度非投影性的语言方面比其投影对应物更有效。
Jul, 2018
通过对十三种语言的依存句法分析实验进行误差分析,本文表明基于转移和基于图的依存句法分析器具有互补的优缺点,深层上下文词嵌入有利于转移依存句法分析器更好地利用其准确的局部决策,使得这两种方法在精度和误差概要方面几乎等效。
Aug, 2019
本研究提出了一种基于图形的端到端神经网络依赖解析器,这种解析器可以训练为复制边缘得分矩阵,从而可以直接在单词对齐上进行投影,并取得了相较于之前的最新技术,在 10 种语言上的 2.25% 的绝对改善。
Jan, 2017
通过使用仅包含句子跨度的最小 LSTM 特征表示的新的 shift-reduce 系统以及第一个可以证明最优的动态 Oracle,该算法的时间复杂度是摊销 O(1),相比于标准依赖解析的 O(n ^ 3)Oracle,我们在使用这个 Oracle 进行训练后,在不使用重新排名或外部数据的情况下取得了最好的 F1 分数,而句法解析准确度得到了显著提高。
Dec, 2016
本研究探讨了在贪婪的基于转移的依存解析中使用丰富的超级标记特征的影响。通过为单词添加 Continue Vector representation of the entire supertag distribution 已经取得了最佳结果,通过在英语 Penn Treebank 上对 Stanford Dependencies 进行转化,最终实现了具有 88.6% LAS 和 90.9% UAS 的超级标记功能的贪婪基于转移的解析。
Jul, 2020
通过结构化感知机训练和使用大量自动解析的句子来学习神经网络表示,我们的解析器在 Penn Treebank 数据集上达到了 94.26%的未标记和 92.41%的标记附加精度,是迄今为止在 Stanford Dependencies 上最佳的精度,并提供深入的剖析分析以确定模型的哪些方面提供了最大的准确性增益。
Jun, 2015
该论文提出了一种广义的非投影转移依存句法分析器,允许多项式时间的精确推断,可以在投影和非投影转移句法分析中提供更好的覆盖率和更好的运行时间保证。
Apr, 2018