联合解析短语结构和依存树的实用性再探
本研究提出了一种新的基于依存的混合树模型,将自然语言转换成机器可解释的含义表示,并通过在标准多语言 GeoQuery 数据集上进行的大量实验证明,我们的方法能够在多种语言上实现最先进的性能。
Sep, 2018
本文提出了第一个 在句法和语篇层面上共同解析 的端到端语篇解析器,并通过将宾州树库与 RST 树库集成来提供第一个语法树处理工具。该工具构建在最新的基于区间的组成解析器上,不需要任何预处理,并实现最先进的端到端语篇解析精度。
Aug, 2017
提出了一种方法,通过将额外标签添加到语法分析树中的每个中文字符,来联合进行中文分词和基于跨度的语法成分分析,实验证明该算法在 CTB5.1 上优于最近的联合分词和语法成分分析模型。
Nov, 2022
研究基于序列的神经网络与基于树的网络在句法任务上的表现,并比较常见的句法表示方法对句法结构带来的影响,同时发现基于组成结构的网络更具鲁棒性,通过少量构建的数据 fine-tune 可以显着提高序列模型的性能,表明数据增强是为序列模型注入句法偏置的可行替代方案。
Apr, 2020
提出了一种基于转换的方法,通过训练单个模型,可以有效地解析任何输入句子,支持连续 / 投影和不连续 / 非投影的句法结构,并证明了这两种句法形式可以在训练过程中互相受益,提高了在多个基准测试中的准确性,如英语和中文 Penn 树库以及德语 NEGRA 和 TIGER 数据集。
Sep, 2020
通过使用基于图的方法,利用句法结构中的成分结构,包括语法树的长距离依赖和结构信息,实现了较强的代词消解技术。实验结果显示,在 OntoNotes 5.0 基准测试的英语和中文部分中,提出的模型要么超过了强基线要么实现了新的最高水平。
Feb, 2022
我们提出了一种新的成分分析模型,将分析问题转化为一系列指向任务,支持高效的自上而下编码和学习目标。实验表明,我们的方法在不使用预训练模型的情况下取得 92.78 F1 的结果,使用预训练 BERT,达到了 95.48 F1 和最先进的技术水平相当。此外,我们的方法也在多语种成分分析领域实现了最新的技术进展。
Jun, 2020
本研究提出了一种新的基于神经网络的两种表征形式(span 和 dependency)的句法和语义联合模型,该模型有效地整合了句法信息,最大化优化联合目标,试验结果表明语义和句法可以相互促进,以全新的表现水平取得了 Propbank 基准测试集上的最好成绩。
Aug, 2019
本文提出了一种基于无监督成分测试的无监督解析方法。通过使用一组转换和一个无监督的神经接受模型来制定无监督解析器,以生成给定句子的树,通过聚合其成分测试判断来评分。并且通过反复改进预测出的树和提高语法性模型之间的相互作用,进一步提高了准确性。
Oct, 2020
本研究探讨了多种模型构型,借助通用分解语义数据(UDS)集中丰富的句法和语义注释,联合解析通用依赖和 UDS,以获得两种形式主义的最新结果,同时分析了句法和语义联合模型的行为。我们还研究了联合建模在多语言环境下的普适性,并发现了 8 种语言中相似的趋势。
Apr, 2021