Mar, 2017
使用循环神经网络估计N元语言模型
N-gram Language Modeling using Recurrent Neural Network Estimation
TL;DR通过使用RNN模型进行$n$-gram语言模型平滑来研究其有效的记忆深度,实验结果表明,在保持句子独立性假设的前提下,使用dropout技术的LSTM cell在编码$n$-gram状态方面的表现最佳,且在$n=9$时,LSTM $n$-gram与LSTM LM表现相当,同时在$n=13$时略优于其,该方法可以提高模型的性能,特别适用于模拟短格式文本如语音搜索/查询语言模型。