全局贪心依存句法分析
本文提出一种新的 O (n^3) 依赖语法分析算法,并开发了三种不同的随机化方式。我们提出了词汇亲和模型、意义标注模型和生成模型。通过在训练文本上评估三种模型的分析性能并给出了初步的实证结果,其中生成模型在分析性能上表现显著优于其他模型,并且在词性标注方面表现同样出色。
Jun, 1997
我们提出了一种新的无监督神经依赖模型的二阶扩展,它可以包含祖父 - 子或兄弟信息,并使用基于一致性的学习框架联合训练一二阶无词汇化模型和一阶词汇化模型,实验表明我们的二阶模型在多个数据集上的效果优于最近的最先进方法,并且我们的联合模型在完整的 WSJ 测试集上取得了 10% 的改进。
Oct, 2020
通过将转移型句法分析器的动态规划实现与最小集的双向 LSTM 功能相结合,Shi、Huang 和 Lee (2017) 获得了英语和汉语依存句法分析最先进的结果,但受限于投影分析。在本文中,我们通过提供 MH_4 算法的第一个实际实现,扩展了他们的方法以支持非投影性,在非投影性树库上具有非常高的覆盖率,并简化该算法以适应最少的转移型特征集。我们因此获得了非投影性转移型分析的全局解码的第一个实现,并证明它在解析一些高度非投影性的语言方面比其投影对应物更有效。
Jul, 2018
本研究提出了一种新颖的转换系统,基于 Covington 非投影解析器,引入了非局部转换,可直接创建涉及当前焦点位置左侧节点的弧,从而避免了创建远距离弧的长序列 No-Arc 转换,从而减轻了错误传播。结果解析器的性能优于原始版本,并在贪心转换算法中在 Stanford Dependencies 转换 Penn Treebank 方面实现了最佳准确性。
Oct, 2017
本文介绍了一种基于转换的解析器,可以同时生成句法和语义依存关系,使用长短期记忆技术来学习算法状态的表示,并具有线性时间复杂度和特征提取,是目前在同时学习语法和语义的解析模型中性能最优的一种。
Jun, 2016
本文引入了第一个具有解码最优性保证的全局递归神经语法分析模型,通过直接搜索所有可能子树的空间来支持全局特征,并使用新的目标函数对全局模型进行训练,实现样本探索的最小化;应用于 CCG 分析,在保证解析最优的情况下,在目标库中 99.9% 句子中找到最优解析,并平均发现 190 个子树。
Jul, 2016
通过对十三种语言的依存句法分析实验进行误差分析,本文表明基于转移和基于图的依存句法分析器具有互补的优缺点,深层上下文词嵌入有利于转移依存句法分析器更好地利用其准确的局部决策,使得这两种方法在精度和误差概要方面几乎等效。
Aug, 2019
本研究应用图神经网络(GNN)构建更高阶语义依存解析器,通过多个 GNN 层的聚合获得更高阶信息,实现近似推理,实现在 SemEval 2015 任务 18 英语数据集上超越先前最先进的解析器。
Jan, 2022
本研究提出了一种基于神经网络的转移句法解析器,利用变分推断、后验正则化和方差减小技术训练模型,实现了无监督依赖语法归纳并在英语 Penn Treebank 和 Universal Dependency Treebank 上取得了可以与基于图的模型相媲美的表现,并且在实验比较中显示出比基于图的模型更快的解析速度。
Nov, 2018