神经成分句法分析器的跨域泛化
通过改进候选选择和使用粗略的修剪功能,我们描述了一种可行的搜索过程,及其用于Choe和Charniak(2016)模型的推理过程在Penn Treebank的23节上能够获得92.56 F1,超过以前的最先进结果。
Jul, 2017
研究了现代和经典的组成分析方法的差异,以及神经网络在此领域的应用。高性能的神经模型代表了最新的工作,实验发现该模型隐式编码了过去语法和词汇表明确提供的信息,暗示这种支撑可以被强大的通用神经机制取代。
Apr, 2018
通过使用神经网络的词表示方法,在与源领域语法相似的情况下,重新审视了领域适应。并提供了一种简单的方法,通过使用少量的部分注释来适应解析器。文章提供的新算法的结果,使华尔街日报测试集的最新单模型状态达到94.3%,比之前最先进的92.6%有一个绝对提高了1.7%。
May, 2018
本课题提出了一种新的句法分析方案,使用语法距离为每个输入句子中的拆分位置预测顺序,以自上而下的方式递归划分输入,相比传统的换卡规约分析方案,本方法不会出现错误累积问题,更易于并行处理,并且在PTB数据集中达到了竞争性的单模型判别式解析器性能,同时在CTB数据集中优于先前的模型。
Jun, 2018
提出了一种基于Neural的序列到序列的语义解析器,它能够高准确率地产生英语句子的DRSs,并通过引入De Bruijn索引消除变量名以提高解析器性能,以及加入银标注数据来进一步提高性能。
Oct, 2018
本文提出了一种基于无监督成分测试的无监督解析方法。通过使用一组转换和一个无监督的神经接受模型来制定无监督解析器,以生成给定句子的树,通过聚合其成分测试判断来评分。并且通过反复改进预测出的树和提高语法性模型之间的相互作用,进一步提高了准确性。
Oct, 2020
本研究使用Transformer-based pre-trained language models并提出一种全新的无监督分析方法,通过引入一个高排名头部的集合,用于从语法角度分析PLMs的学习知识,从而提取出PLMs的句法知识,并用这些知识来训练神经PCFG,最终与人类注释的语法树库得到比较。
Oct, 2020
该研究提出了两个快速神经组合模型,用于句法分析,分别是二元模型和多分支模型,它们的理论复杂度是次二次的,实际复杂度较低,其中二元模型在 Penn Treebank 上取得了92.54的F1分数,并以1327.2个句子/秒的速度进行解析。同时,该模型结合XLNet,准确率接近英文句法分析的最新水平,并能够观察到Penn Treebank、Chinese Treebank和Keyaki Treebank(日本)在训练和推理过程中的句法倾向和头向性。
Jun, 2021