使用分层树 LSTM 进行简单优先级依赖解析
本文介绍了一种基于转换的解析器,可以同时生成句法和语义依存关系,使用长短期记忆技术来学习算法状态的表示,并具有线性时间复杂度和特征提取,是目前在同时学习语法和语义的解析模型中性能最优的一种。
Jun, 2016
本文介绍了一种基于神经网络的贪心解析器,利用一种新的组合子树表示方法。该解析器和组合过程共同训练,且相互之间密切相关。使用连续(单词或标签)表示和循环神经网络进行组合和标记。我们在具有速度优势的同时获得了与众所周知的现有解析器相当的 F1 性能。
Dec, 2014
该论文介绍了一种利用二进制语法树和 Tree-LSTM 组成的神经网络,可在自然语言图表解析器的帮助下同时优化组成函数和解析器,进而实现无监督的树形 RNN,并在文本蕴涵任务和反向字典任务中表现优越。
May, 2017
该文提出了一种新的序列到序列神经网络控制结构 —— 堆栈 LSTM,用于学习过渡式依赖解析器的解析状态,将其应用于解析模型中,实现了解析器状态的三个方面,提高了解析性能。
May, 2015
本文介绍了一种针对形态丰富的语言的连续状态依赖解析扩展方法,使用 LSTM 循环神经网络来学习表示解析器状态,将基于查找的词表示替换为由单词的正字表示构成的表示,使用字符编码来提高解析模型的表现。
Aug, 2015
研究神经依赖解析中树形结构模型需要在序列模型之上添加的必要性,通过双向 LSTM 提取的特性进行了模型基础,证明前向 LSTM 和组合提取相似信息并且组合提取更适用于基于转移的解析器。
Feb, 2019
介绍了两个第一阶段基于图的依存解析器,第一个是通过集成学习同质模型的共识解析器,利用最小贝叶斯风险解码法和 Hamming 代价,结合集成中的不确定性评估进行训练,第二个则是将集成模型压缩成单一模型的 'distillation' 解析器,利用新颖的结构化铰链损失函数避免了普通 'distillation' 目标的不可解交叉熵,首次在英语、汉语和德语上达到或超过了现有最先进水平。
Sep, 2016
本文研究使用基于 BiLSTM 的序列标注方法重构了依存句法分析,并通过在 PTB 和 UD 树库样本上的实验,证明该方法在速度和准确性之间提供了很好的平衡,结果与更复杂的方法相当竞争力。
Feb, 2019