神经预读特征的移进 - 规约成分句法分析
该文章提出了一种新颖的非二元移进 - 规约算法用于组成句法分析,其比现有的基于移进 - 规约的组成句法分析系统使用更少的转换,成为最快的该类系统,以此加快下游任务的速度。该算法的准确性可以与当前最先进的基于移进 - 规约技术的组成句法分析器相媲美,同时在 Wall Street Journal 部分中,它超过所有自上而下有效移进 - 规约的系统。
Apr, 2018
本研究提出了基于中序遍历的句法树的新型解析系统,该系统采用一组转移动作来平衡自底向上成分信息和自顶向下的前瞻信息,基于堆栈 LSTM 的心理语言学成分解析系统在 WSJ 基准测试上实现了 91.8 F1,并且经过有监督的重排序后可以达到 93.6 F1,经过半监督的重排序后,可以达到 94.2 F1。
Jul, 2017
本文研究了两种概念简单的本地神经模型,在成分分析中取得了高度竞争的结果,分别实现了 PTB 和 CTB5.1 中的标记支架 F1 得分为 92.4%和 87.3%。
Aug, 2018
通过使用仅包含句子跨度的最小 LSTM 特征表示的新的 shift-reduce 系统以及第一个可以证明最优的动态 Oracle,该算法的时间复杂度是摊销 O(1),相比于标准依赖解析的 O(n ^ 3)Oracle,我们在使用这个 Oracle 进行训练后,在不使用重新排名或外部数据的情况下取得了最好的 F1 分数,而句法解析准确度得到了显著提高。
Dec, 2016
本文探讨了基于转换系统的移进规约语义分析器,利用 Cutting-edge Transformer 架构和 In-order 算法,结合 Facebook TOP 基准中的多个领域的广泛测试,本方法在高资源和低资源情况下均超过了现有的移进规约解析器和最先进的序列到序列模型。
Oct, 2022
该研究提出了两个快速神经组合模型,用于句法分析,分别是二元模型和多分支模型,它们的理论复杂度是次二次的,实际复杂度较低,其中二元模型在 Penn Treebank 上取得了 92.54 的 F1 分数,并以 1327.2 个句子 / 秒的速度进行解析。同时,该模型结合 XLNet,准确率接近英文句法分析的最新水平,并能够观察到 Penn Treebank、Chinese Treebank 和 Keyaki Treebank(日本)在训练和推理过程中的句法倾向和头向性。
Jun, 2021
本文探讨了使用序列到序列 Transformer 模型设计全局或局部状态模拟器改善基于转移的语法分析系统表现,并发现 Transformer 的交叉注意力机制的修改对于依存关系和抽象意义表征(AMR)分析任务的效果特别明显,尤其是在较小的模型或有限的训练数据下。
Oct, 2020
本研究提出一种基于 Shift-Reduce Parsing 的潜在树学习模型,在下游任务上具有竞争性能表现和重要诱导树,同时使用图表模型进行对比分析。
Jun, 2018