BriefGPT.xyz
Ask
alpha
关键词
distilled contrastive learning
搜索结果 - 1
ECCV
DisCo: 用蒸馏对比学习订正轻量模型的自监督学习
本文提出了一种名为 Distilled Contrastive Learning (DisCo) 的方法,通过将主流自监督学习方法中蕴含的最有价值的信息提取出来,然后通过约束学生模型的最终嵌入与教师模型的嵌入保持一致,从而大幅缓解模型规模减
→
PDF
3 years ago
Prev
Next