作为头选项的依存句法分析
本文提出了一种新的中间表示法,基于这种表示法,我们将短语表示分析转化为依存分析,并通过在依存标签中编码顺序信息,表明任何可训练的依存分析器都可以用来生成 constituents。尽管我们的方法很简单,但实验证明,结果与强基准线(例如伯克利解析器和 SPMRL 2014 共享任务中最好的单一系统)不相上下,特别是在德语断点解析方面,我们超过了当前的技术水平。
Feb, 2015
本文提出了一种整合了一切的语义分析模型,采用词对分类问题的方法,运用最大熵分类器和特征选择工程解决了该领域迄今为止最大的特征空间问题,获得了 CoNLL-2008 共享任务评估数据集的最好性能。
Jan, 2014
我们提出了一种新的基于 headed spans 的投影依存解析方法。我们将从每个单词开始的最大子树表示为一组 headed spans,将一个依存树的得分分解为所有 headed spans 的得分, 并设计了一个新颖的 O (n3) 动态编程算法实现全局训练和准确推理。我们的方法在 PTB,CTB 和 UD 上实现了最先进或有竞争力的结果。
Aug, 2021
用单个深度神经网络实现的依赖关系解析器,无需词性标注即可直接生成依存关系及其标签,经过多任务学习和适当的正则化和额外监督训练,在没有语言特征的情况下,在斯拉夫语 UD 树库中表现为最高准确性。
Sep, 2016
本研究提出了一种新的基于依存的混合树模型,将自然语言转换成机器可解释的含义表示,并通过在标准多语言 GeoQuery 数据集上进行的大量实验证明,我们的方法能够在多种语言上实现最先进的性能。
Sep, 2018
该论文介绍了 Stanford 的 CoNLL 2018 UD 共享任务中的系统,这是一个完整的神经管道系统,可以将原始文本作为输入,并执行共享任务所需的所有任务,从分词和句子分割到词性标注和依赖关系解析,并通过广泛的消融研究展示了不同的模型组件的有效性。
Jan, 2019
通过提供第一个标记有语法依存树的通用语言标题新闻语料库,我们旨在弥补语言处理句法分析领域对新闻标题的关注不足。通过从未标记的新闻标题 - 文章引文对中获取银标签训练数据来改进英语新闻标题的分析准确性,我们发现训练基于银标题解析的模型比仅基于黄金注释长格式文本训练的模型性能有显着提高。最终,我们发现尽管投影的银标签训练数据可以提高解析器在不同新闻媒体上的性能,但是该提高是受特定出版物特有结构的调节的。
Jan, 2023
本文提出了一种自我训练算法 Deep Contextualized Self-training (DCST),利用序列标注的表示模型来解决大量标注数据的问题,并通过控制机制将这些模型集成到基础解析器中,并在多语言实验中取得了优异的成绩。
Nov, 2019
我们开发了一种新颖的双向注意力模型,用于依存句法分析,其学习从正向和反向分析方向中的头部单词预测达成一致的方法。通过连续查询存储连续头部单词嵌入的存储器组件,为每个方向的分析过程制定解析程序。我们针对来自 CoNLL 2006 共享任务的英文、中文和其他 12 种语言进行了实验,并表明所提出的模型在 6 种语言的无标记附着得分上达到了最先进的水平。
Aug, 2016
该论文尝试将组成和依存句法两种形式融合到头驱动短语结构中,提出了两种基于所转换树的解析算法,成功地在 Penn Treebank(PTB)和中文 Penn Treebank 上实现了一种新型联合解码器,达到了本领域最高的解析性能。
Jul, 2019