BriefGPT.xyz
Ask
alpha
关键词
pattern-clustered knowledge distillation
搜索结果 - 1
PaCKD: 模式聚类知识蒸馏用于压缩内存访问预测模型
使用模式聚类知识蒸馏方法,我们提出了 PaCKD,这是一种压缩内存访问预测模型的方法,通过为每个分区训练大型模式特定的教师模型,然后从这些训练好的模式特定教师中提取知识训练一个单一轻量级的学生模型,以在保持预测性能的同时实现模型大小的 55
→
PDF
5 months ago
Prev
Next