关键词perplexity improvement
搜索结果 - 4
- 邻居非自选:关于 $k$NN-LM 中如何选择何时依赖检索
研究了基于检索增强的语言模型中 $k$NN-LM 中检索文本的词汇和语义匹配对于性能的影响,并通过使用检索结果质量确定插值系数的新表述,成功地提高了英文语言建模数据集 Wikitext-103 和 PG-19 中的困惑度近 4%。
- ACL基于上位词类别预测的更好语言模型
通过将具有相同 WordNet 超类的单词映射到同一类中,并逐渐从预测类逐步训练为预测单词,我们在两个数据集上证明了该课程学习策略能够显著提高困惑度而不影响罕见词性能。
- AAAI通过学习排序进行语言建模
通过使用预先训练的 GPT-2、BERT 和 Born-Again 模型来生成排名来避免标注排名,建立语言建模为排序任务的方法,并使用 $n$-gram 创建非概率性教师,证实我们可以将 $LMing$ 视为排序任务而不使用预先训练的 LM - 神经语言模型的自适应输入表示
论文介绍了适应性输入表示对神经语言建模的重要性,对比了在自注意力网络结构中以字符、单词和亚词元为单位以及输入和输出层的因数分解方案,并最终实现了在不增加参数前提下提高模型训练速度和减少困惑度的目的。