关键词metric-based distillation
搜索结果 - 2
- 精确知识传递通过流匹配
我们提出了一种新颖的知识转移框架,引入连续归一化流进行渐进知识转化,并利用多步采样策略实现精准知识传递。通过引入随机插值,我们理论上证明了 FM-KT 的训练目标相当于最小化教师特征映射或逻辑负对数似然的上界。此外,FM-KT 可以看作是一 - 文本和语音预训练模型之间的自适应知识蒸馏
本文介绍了一种通过度量学进行知识蒸馏以改善文本和音频的嵌入向量的对齐,提出了 Prior-informed Adaptive knowledge Distillation (PAD) 方法,该方法具有更好的文本语音模型之间的传输能力,我们在