EMNLPAug, 2019

神经语言模型中,数量不代表语法质量

TL;DR本论文研究了增加神经网络大小和训练语料对于缓解基于循环神经网络的语言模型中存在的语法复杂性问题的作用。研究发现,增加网络大小和扩展语料对于缓解该问题的效果都有限,而与基于 Transformer 的模型 GPT 和 BERT 相比,LSTM 模型在某些结构下表现更好。因此,本研究倡导更为数据高效的神经网络结构。