BriefGPT.xyz
Ask
alpha
关键词
dense knowledge distillation
搜索结果 - 1
稠密提取累积知识用于连续学习
连续学习面临的致命遗忘问题可以通过稠密知识蒸馏方法得到改善,该方法可以在所有任务间蒸馏累积知识,提高模型的稳定性。
PDF
2 months ago
Prev
Next