神经网络基于转移的结构化训练解析
通过使用 pointer networks 实现的转移句法分析器在依赖句法分析方面已经成为最新的技术水平,我们提出了一种基于指针网络的转移系统,可以直接生成标记有方向无环图并实现语义依赖分析。同时,我们使用从 BERT 提取的深层上下文化的词嵌入来增强我们的方法。这一结果不仅超越了所有现有的基于转移的模型,而且还匹配了 SemEval 2015 任务 18 英语数据集上先前最先进的基于图形的解析器的最佳完全监督准确率。
May, 2020
提出了一种基于转换的方法,通过训练单个模型,可以有效地解析任何输入句子,支持连续 / 投影和不连续 / 非投影的句法结构,并证明了这两种句法形式可以在训练过程中互相受益,提高了在多个基准测试中的准确性,如英语和中文 Penn 树库以及德语 NEGRA 和 TIGER 数据集。
Sep, 2020
本文介绍了一种神经语义解析器,将自然语言对话转换成谓语 - 论元结构的中间表示,并通过标注的逻辑形式或其指示训练端到端的语义解析器。在各种数据集上实验,得到了具有竞争力的结果。作者从诱导的谓词 - 论元结构中发现,它们可以揭示有关语义解析有用表示形式的类型以及这些表示形式与语言学上动机的表示形式之间的差异。
Apr, 2017
本文介绍了一种神经语义解析器,可以将自然语言表达式映射到逻辑形式,以在特定任务环境中执行,如知识库或数据库,生成响应。解析器使用基于转换的方法生成具有树形结构的逻辑形式,结合由逻辑语言定义的通用树生成算法和领域一般性操作。解析器的生成过程由结构化循环神经网络建模,提供句子上下文和生成历史的丰富编码,以进行预测。为了解决自然语言和逻辑形式标记之间的不匹配,探讨了各种注意机制。最后,我们考虑了神经语义解析器的不同训练设置,包括全监督训练、弱监督训练和远程监督训练。对各种数据集的实验表明了我们解析器的有效性。
Nov, 2017
本文介绍了一种基于深度学习的语义依存图形式分析系统,该系统采用效率高且几乎拓扑结构简单的推理方法,通过组合双向 - LSTM 和多层感知机,能够在不使用手工特征或语法的情况下显著提高语义依存分析的技术水平。作者还对多任务学习策略进行了研究,并获得了新的技术成果。
Apr, 2017
本文讨论了使用预训练架构(而非解码)进行单语种全刻度句法分析(成分和依赖)的问题,并使用序列标注作为模型,探讨了不同词向量的句法敏感性。实验分析显示,使用预训练编码器的结果优于现有序列标记解析器,F1 评分为 93.5%(PTB)和 78.8%(EN-EWT UD)的限制条件下。
Feb, 2020
本文通过对三种主流的依存句法分析器进行描述和比较,提出了两种直接使用部分注释数据(PA)进行训练的方法,其基于森林目标和受限解码的思想,研究了如何通过 PA 训练统计模型的问题。实验证明,基于 LLGPar 的方法在学习 PA 方面最为有效,而 LTPar 在表现上落后于基于图的对照组。
Sep, 2016
本文提出了一种新型的神经语言模型 Parsing-Reading-Predict Networks(PRPN),利用其特定的神经网络结构能够自动识别未标注的句子的句法结构,并利用它来学习更好的语言模型。实验证明,该模型能够发现底层的句法结构,并在单词 / 字符水平的语言模型任务上取得了最先进水平。
Nov, 2017
该研究提出了一个基于神经编码器 - 解码器的转移句法分析器,可以作为关于最小递归语义的完全覆盖的语义图分析器,预测图与非词汇化谓词及其标记对齐共同。该分析器比注意力模型基准更准确,并且在 GPU 批处理方面比高精度基于语法的分析器快一个数量级。此外,我们的最小递归语义分析器的 86.69% Smatch 得分高于 AMR 分析的上限,这使得 MRS 成为有吸引力的语义表示选择。
Apr, 2017