介绍了一种新的递归神经条件随机场模型,学习了非线性边特征,与其他神经模型相比,该模型在 NP 语块划分、浅层解析、中文分词和 POS 标注等结构化预测任务中表现更好。
Nov, 2016
本研究旨在提出一种快速准确的神经 CRF 成分句法分析器,采用内部算法批处理、边界表示和双仿射关注等手段,提高了句法分析的效率和性能,并在三个数据集上达到了最新的最高性能。
Aug, 2020
本文研究了两种概念简单的本地神经模型,在成分分析中取得了高度竞争的结果,分别实现了 PTB 和 CTB5.1 中的标记支架 F1 得分为 92.4%和 87.3%。
Aug, 2018
本文介绍了一种基于 label 和 span 独立评分的最小神经模型,并证明了该模型不仅与经典的动态规划技术兼容,而且还支持一种基于递归分割的新颖贪心自顶向下推理算法。经实验证明,两种预测方案竞争力强,并且与得分模型的基本扩展相结合,能够实现 Penn Treebank 的单模型最优性能(91.79 F1),并在法语 Treebank 上获得强大的性能(82.23 F1)。
May, 2017
本文研究将非局部特征注入本地基于跨度的解析器的训练过程中,通过预测组成成分 n-gram 非局部模式并确保非局部模式与本地成分的一致性,结果显示,我们的方法在 PTB 和 CTB 上均优于自我注意解析器,在 PTB 上达到 BERT 的最新性能(95.92 F1),并在 CTB 上获得强大的性能(92.31 F1)。与基线相比,在多语言和零 - shot 跨领域设置中,我们的解析器也实现了更好或具有竞争力的性能。
Sep, 2021
本文提出了一种新型的神经语言模型 Parsing-Reading-Predict Networks(PRPN),利用其特定的神经网络结构能够自动识别未标注的句子的句法结构,并利用它来学习更好的语言模型。实验证明,该模型能够发现底层的句法结构,并在单词 / 字符水平的语言模型任务上取得了最先进水平。
Nov, 2017
研究了现代和经典的组成分析方法的差异,以及神经网络在此领域的应用。高性能的神经模型代表了最新的工作,实验发现该模型隐式编码了过去语法和词汇表明确提供的信息,暗示这种支撑可以被强大的通用神经机制取代。
Apr, 2018
通过对输出进行限制,可以训练出一个标注器,其与 CRF 相比可以实现两倍的交叉熵损失速度,差异在 F1 方面不具有统计学意义,从而有效消除了对 CRF 的需要。
Oct, 2020
通过改进候选选择和使用粗略的修剪功能,我们描述了一种可行的搜索过程,及其用于 Choe 和 Charniak(2016)模型的推理过程在 Penn Treebank 的 23 节上能够获得 92.56 F1,超过以前的最先进结果。
Jul, 2017
通过结构化感知机训练和使用大量自动解析的句子来学习神经网络表示,我们的解析器在 Penn Treebank 数据集上达到了 94.26%的未标记和 92.41%的标记附加精度,是迄今为止在 Stanford Dependencies 上最佳的精度,并提供深入的剖析分析以确定模型的哪些方面提供了最大的准确性增益。
Jun, 2015