AAAINov, 2017

适用于循环神经网络语言模型的瘦身嵌入层

TL;DR本文介绍了一种通过在 RNN 中的输入和输出嵌入层共享参数来压缩模型参数的方法,实验证明该方法可大幅减小模型参数的大小,但仍能在自然语言处理中保持模型的准确性和性能表现。