BriefGPT.xyz
Ask
alpha
关键词
selective knowledge distillation
搜索结果 - 2
非自回归神经机器翻译的选择性知识蒸馏
本文提出了一种选择性知识蒸馏技术,通过 NAT 评估器选择高质量且易于学习的 NAT 友好目标,并引入简单而有效的渐进式蒸馏方法来提高 NAT 性能,在多个 WMT 语言方向和多个代表性 NAT 模型上进行实验。结果表明,我们的方法可以实现
→
PDF
a year ago
通过选择性知识蒸馏实现野外低分辨率人脸识别
本研究提出了一种使用选择性知识蒸馏学习低分辨率人脸识别的方法,在损失性能的同时实现更高速度和更低内存消耗,通过优化图问题,选择性地从一个复杂的面部模型中提取最具信息量的面部特征来让一个简单的卷积神经网络完成相应识别任务。
PDF
6 years ago
Prev
Next