EMNLPAug, 2015

循环神经语言模型中的在线表示学习

TL;DR研究连续在线学习在递归神经网络语言模型中的扩展,通过每次预测后自适应地调整当前文本单元的矢量表示,实现提高语言建模精度并减少模型存储所需的计算参数。