ACLApr, 2019

可并行的堆栈长短期记忆

TL;DR本文研究了如何利用 Stack Long Short-Term Memory (StackLSTM) 的状态访问模式来优化 GPU 训练,将不同的离散操作同质化。实验结果表明,该方法在批处理大小增加时具有几乎线性的可扩展性,而我们的 PyTorch 实现的训练速度也比 Dynet C ++ 实现快得多。