Mar, 2017

使用循环神经网络估计 N 元语言模型

TL;DR通过使用 RNN 模型进行 $n$-gram 语言模型平滑来研究其有效的记忆深度,实验结果表明,在保持句子独立性假设的前提下,使用 dropout 技术的 LSTM cell 在编码 $n$-gram 状态方面的表现最佳,且在 $n=9$ 时,LSTM $n$-gram 与 LSTM LM 表现相当,同时在 $n=13$ 时略优于其,该方法可以提高模型的性能,特别适用于模拟短格式文本如语音搜索 / 查询语言模型。