BriefGPT.xyz
Ask
alpha
关键词
prior-informed adaptive knowledge distillation
搜索结果 - 1
文本和语音预训练模型之间的自适应知识蒸馏
本文介绍了一种通过度量学进行知识蒸馏以改善文本和音频的嵌入向量的对齐,提出了 Prior-informed Adaptive knowledge Distillation (PAD) 方法,该方法具有更好的文本语音模型之间的传输能力,我们在
→
PDF
a year ago
Prev
Next