BriefGPT.xyz
Ask
alpha
关键词
curriculum distillation
搜索结果 - 1
近期师生学习研究综述
知识蒸馏是一种将深度神经网络的知识转移到更小更快的神经网络中的方法,近期变体包括教学助理蒸馏、课程蒸馏、遮罩蒸馏和解耦蒸馏等,致力于通过引入额外的组件或改变学习过程来提高知识蒸馏的性能。
PDF
a year ago
Prev
Next