通过复制两种无监督学习句子语法结构的神经网络,本研究发现其中只有一种模型在对句子进行分类上表现更出色,但其分析策略随机性大、分析结果相较于常见的 Penn Treebank 结构更为浅显,并且与任何作者所知的语义或句法形式学不上相似。
Sep, 2017
研究表明,使用 ON-LSTM 等模型进行自然语言处理,可以在没有人为注释的情况下学习组成句法分析,相对最佳状态的性能表现较好,但在解析内部结构更复杂的名词短语时存在困难,并可能高估在动词之前分割点的高度。我们推测采用不同于单向语言建模的训练任务可能有助于解决这两个问题。
Oct, 2020
本文研究了使用神经模型对组分树进行情感分类。在研究中探索了两种深度情感表达的形式,分别是通过潜变量和高斯混合向量来捕捉情感子类型表达的形式。实验表明,使用我们的方法,结合 ELMo 嵌入,可以在 Stanford 情感树库 (SST) 上取得最佳结果。
Jun, 2019
本文介绍了潜在树语言模型(LTLM),该模型将给定句子的语法和语义编码为单词角色树。将 LTLM 与 4 元修改 Kneser-Ney 语言模型相结合,通过线性插值,在英语和捷克语语料库中的实验表明,与独立的 4 元修改 Kneser-Ney 语言模型相比,明显降低了困惑度(英语最高降低 46%,捷克语最高降低 49%)
Jul, 2016
我们介绍了一种利用循环神经网络语法编码器和新颖的注意力递归神经网络解码器的模型,利用策略梯度强化学习来在源语言和目标语言上诱导无监督树结构,从而训练出在字符级数据集中相当不错的分割和浅层解析表现,接近注意力基准。
该论文提出了一种新颖的神经机器翻译模型,可联合学习句子的翻译和源端的潜在图表示,通过端到端模型优化句子的潜在图解析器,实现了目标翻译优化,并在标准的英日翻译数据集上显著优于以前的最佳模型。
Feb, 2017
本文回顾了近年来自然语言处理领域的语言模型的发展,并探讨在研究语言模型中基于句法的研究中存在的问题以及解决方案,旨在为未来语言模型的研究提供一种较为多样化和立体化的研究视角。
Oct, 2021
本文提出了一种新型的神经语言模型 Parsing-Reading-Predict Networks(PRPN),利用其特定的神经网络结构能够自动识别未标注的句子的句法结构,并利用它来学习更好的语言模型。实验证明,该模型能够发现底层的句法结构,并在单词 / 字符水平的语言模型任务上取得了最先进水平。
Nov, 2017
我们提出了一种模仿学习的无监督句法分析方法,将 PRPN 诱导的句法知识转移到带有离散句法分析操作的 Tree-LSTM 模型上,并通过 Gumbel-Softmax 训练不断优化其策略以实现更好的语义目标。在 All-NLI 数据集上进行实验,证明我们的方法在句法得分上超过了基准模型,包括 PRPN。
该论文介绍了一种利用二进制语法树和 Tree-LSTM 组成的神经网络,可在自然语言图表解析器的帮助下同时优化组成函数和解析器,进而实现无监督的树形 RNN,并在文本蕴涵任务和反向字典任务中表现优越。
May, 2017