使用指针网络的不连续成分句法分析
提出了一种基于转换的方法,通过训练单个模型,可以有效地解析任何输入句子,支持连续 / 投影和不连续 / 非投影的句法结构,并证明了这两种句法形式可以在训练过程中互相受益,提高了在多个基准测试中的准确性,如英语和中文 Penn 树库以及德语 NEGRA 和 TIGER 数据集。
Sep, 2020
通过将不连续成分的树转换成连续的变体,并使用指针网络和双射函数,将不连续的解析降低到一项连续问题,这项方法与全面的不连续算法相比具有相当准确率,但速度要快得多。
Apr, 2021
通过使用 pointer networks 实现的转移句法分析器在依赖句法分析方面已经成为最新的技术水平,我们提出了一种基于指针网络的转移系统,可以直接生成标记有方向无环图并实现语义依赖分析。同时,我们使用从 BERT 提取的深层上下文化的词嵌入来增强我们的方法。这一结果不仅超越了所有现有的基于转移的模型,而且还匹配了 SemEval 2015 任务 18 英语数据集上先前最先进的基于图形的解析器的最佳完全监督准确率。
May, 2020
本研究提出了一种新的依存句法分析架构:堆栈指针网络(StackPtr),它将指针网络与内部堆栈相结合,在整个句子上首先进行读取和编码,然后以自顶向下(从根到叶)的深度优先方式构建依存树,生成任何(包括非投影)解析树的步骤数与其他基于转换的解析器一样,在句子长度中是线性的。在 29 个树库方面进行评估,跨越 20 种语言和不同的依赖注释模式,并在其中 21 个方面实现最先进的性能表现。
May, 2018
提出了一种新颖的基于转移的算法,采用指针网络框架,从左到右直接将句子解析为 $n$ 个附加部分,避免使用原始的自上而下堆栈指针解析器,并将转换序列长度减半,得到了一个二次非投影解析器,在完全监督单模型依赖解析器中取得了迄今最好的准确度,并在大多数语言测试中改进了以前的自上而下转移系统。
Mar, 2019
该研究提出了两个快速神经组合模型,用于句法分析,分别是二元模型和多分支模型,它们的理论复杂度是次二次的,实际复杂度较低,其中二元模型在 Penn Treebank 上取得了 92.54 的 F1 分数,并以 1327.2 个句子 / 秒的速度进行解析。同时,该模型结合 XLNet,准确率接近英文句法分析的最新水平,并能够观察到 Penn Treebank、Chinese Treebank 和 Keyaki Treebank(日本)在训练和推理过程中的句法倾向和头向性。
Jun, 2021
研究了现代和经典的组成分析方法的差异,以及神经网络在此领域的应用。高性能的神经模型代表了最新的工作,实验发现该模型隐式编码了过去语法和词汇表明确提供的信息,暗示这种支撑可以被强大的通用神经机制取代。
Apr, 2018
本文提出了一种新的中间表示法,基于这种表示法,我们将短语表示分析转化为依存分析,并通过在依存标签中编码顺序信息,表明任何可训练的依存分析器都可以用来生成 constituents。尽管我们的方法很简单,但实验证明,结果与强基准线(例如伯克利解析器和 SPMRL 2014 共享任务中最好的单一系统)不相上下,特别是在德语断点解析方面,我们超过了当前的技术水平。
Feb, 2015
本研究比较基于词汇化和非词汇化的句法分析模型的性能表现,提出了一种基于结构 - 标签转换系统和双向 LSTM 评分系统的非词汇化转换型分析器,结果表明非词汇化模型在处理不连续组分句法结构时具有更好的性能表现,尤其是在英语和德语的领域中。
Feb, 2019