BriefGPT.xyz
大模型
Ask
alpha
关键词
angle-wise distillation
搜索结果 - 1
CVPR
关系知识蒸馏
该论文提出了关系知识蒸馏方法(RKD),用于将数据示例之间的相互关系转移给学生模型,进而提高其在度量学习等任务中的性能,尤其是在标准基准数据集上取得了超越其老师的表现。
PDF
5 years ago
Prev
Next