Oct, 2022
知识蒸馏的多码本向量量化索引预测
Predicting Multi-Codebook Vector Quantization Indexes for Knowledge Distillation
Liyong Guo, Xiaoyu Yang, Quandong Wang, Yuxiang Kong, Zengwei Yao...
TL;DR本文提出了一种新的多码本量化方法,将生成教师向量卡尺化成为一个编解码问题,实现了教师模型的向量压缩,以减少模型存储需求。在 LibriSpeech 数据集上,用该方法训练的学生模型能够获得与传统 KD 方法(l1, l2)相当的 ASR 性能,并在存储容量上实现了 256 倍的减少。