BriefGPT.xyz
Ask
alpha
关键词
distillation metric
搜索结果 - 1
深度学习中的知识蒸馏及其应用
通过使用知识蒸馏技术,从大模型 (教师模型) 中提取信息,训练小模型 (学生模型) 可以解决将大型深度学习模型部署在移动设备和嵌入式设备上的问题。本文提出了一种基于蒸馏度量的比较不同知识蒸馏算法性能的新指标,并通过对知识蒸馏技术应用于深度学
→
PDF
4 years ago
Prev
Next