ACLMay, 2018

深度循环神经网络编码软层级句法

TL;DR本研究介绍一组实验,以证明深度递归神经网络(RNN)可以从高度多变的监督中学习到捕捉软层级句法概念的内部表征。我们考虑了四个句法任务,每个词的词性以及出现在其上方的第一(parent)、第二(grandparent),第三层级(great-grandparent)的构成标签。我们发现每个网络深度与句法层级之间存在对应关系,这表明出现了柔和的句法层级。这个效应在所有条件下都是强有力的,这表明即使没有显式的句法训练监督,这些模型也编码了大量句法信息。