Apr, 2019

循环神经网络语言建模的知识蒸馏与信任正则化

TL;DR本文通过应用知识蒸馏和信任正则化方法来减小模型大小,从而降低了循环神经网络(RNN)语言模型的计算成本,并保持了该模型在Penn Treebank数据集上的最先进困惑度结果,同时在声音识别任务中没有降低单词错误率(WER)。