Oct, 2022

知识蒸馏的多码本向量量化索引预测

TL;DR本文提出了一种新的多码本量化方法,将生成教师向量卡尺化成为一个编解码问题,实现了教师模型的向量压缩,以减少模型存储需求。在 LibriSpeech 数据集上,用该方法训练的学生模型能够获得与传统 KD 方法(l1, l2)相当的 ASR 性能,并在存储容量上实现了 256 倍的减少。