Aug, 2016

神经语言模型的生成式知识转移

TL;DR本文提出了一种生成式知识迁移的技术,使用以前训练的基于 RNN 的语言模型 (RNN 学生网络) 生成的文本和输出概率来训练一个新的语言模型。我们还可以通过使用多个教师网络的软标签组合来提高性能,从而适用于隐私意识的语言模型自适应,因为不会直接使用用户数据进行训练。特别是,当多个设备的软标签通过可信的第三方进行聚合时,我们可以期望非常强的隐私保护。