NIPSNov, 2017

更广更深,更便宜更快:张量 LSTM 用于序列学习

TL;DR本文介绍了一种新的神经网络模型,即 Tensorized LSTM,它使用张量来表示隐藏状态,通过跨层卷积来更新这些状态。该模型在不增加额外参数的情况下,有效地扩展了网络的容量,并将深度计算合并为时序计算,从而提高了其性能。实验结果表明,该模型在多项挑战性的序列学习任务中表现出很大的潜力。