一种基于句法跨度的最小神经网络成分句法分析器
我们提出了一种新的成分分析模型,将分析问题转化为一系列指向任务,支持高效的自上而下编码和学习目标。实验表明,我们的方法在不使用预训练模型的情况下取得 92.78 F1 的结果,使用预训练 BERT,达到了 95.48 F1 和最先进的技术水平相当。此外,我们的方法也在多语种成分分析领域实现了最新的技术进展。
Jun, 2020
通过使用仅包含句子跨度的最小 LSTM 特征表示的新的 shift-reduce 系统以及第一个可以证明最优的动态 Oracle,该算法的时间复杂度是摊销 O(1),相比于标准依赖解析的 O(n ^ 3)Oracle,我们在使用这个 Oracle 进行训练后,在不使用重新排名或外部数据的情况下取得了最好的 F1 分数,而句法解析准确度得到了显著提高。
Dec, 2016
该研究提出了两个快速神经组合模型,用于句法分析,分别是二元模型和多分支模型,它们的理论复杂度是次二次的,实际复杂度较低,其中二元模型在 Penn Treebank 上取得了 92.54 的 F1 分数,并以 1327.2 个句子 / 秒的速度进行解析。同时,该模型结合 XLNet,准确率接近英文句法分析的最新水平,并能够观察到 Penn Treebank、Chinese Treebank 和 Keyaki Treebank(日本)在训练和推理过程中的句法倾向和头向性。
Jun, 2021
本文研究了两种概念简单的本地神经模型,在成分分析中取得了高度竞争的结果,分别实现了 PTB 和 CTB5.1 中的标记支架 F1 得分为 92.4%和 87.3%。
Aug, 2018
本文提出了一种基于无监督成分测试的无监督解析方法。通过使用一组转换和一个无监督的神经接受模型来制定无监督解析器,以生成给定句子的树,通过聚合其成分测试判断来评分。并且通过反复改进预测出的树和提高语法性模型之间的相互作用,进一步提高了准确性。
Oct, 2020
提出了一种基于 RNNs 和动态规划的图结构堆叠和波束搜索的线性时间组成成分句法分析器,通过集成立方剪枝,可以将其运行速度进一步提高到 O(n b log b),相对于图表解析基线,此线性时间解析器在长句子上的速度明显更快,对于话语分析来说速度更快,是单模型端到端系统中在 Penn Treebank 上达到的最高 F1 准确度。
May, 2018
提出了一种新颖的算法,使用神经跨度编码器与语法树结构进行句法分析,利用 GPU 并行计算实现了对传统跨度组合评分进行更精密算法的计算,并在 Penn Treebank 数据集上取得了较好的预测性能。
Nov, 2022
本文提出了一种利用跨度注意力和分类跨度注意力的神经图表句法分析方法,通过加入 n-gram 信息,得以更好的建模上下文信息,并在阿拉伯语、中文和英语解析中都取得了最先进的性能。
Oct, 2020
提出了一种用于跨度句法分析的基于图表的新算法,可以处理块度为 2 的不连续依存树,包括病态嵌套结构,在时间复杂度为 O (n^(6~3)) 之间构建其变异版本,并在德语和英语树库上评估其性能,包括预先训练的词嵌入和基于 BERT 的神经网络。
Mar, 2020
本研究旨在提出一种快速准确的神经 CRF 成分句法分析器,采用内部算法批处理、边界表示和双仿射关注等手段,提高了句法分析的效率和性能,并在三个数据集上达到了最新的最高性能。
Aug, 2020