BriefGPT.xyz
Ask
alpha
关键词
contrastive knowledge distillation
搜索结果 - 2
CKD:基于样本级别的对比知识蒸馏
我们提出了一种简单而有效的对比知识蒸馏方法,通过样本间和样本内约束问题的分析,实现了‘黑暗知识’的恢复。我们的方法通过对齐学生和教师的逐样本逻辑回归,最小化了相同样本中的逻辑回归差异,同时通过利用不同样本之间的差异性来弥合语义差异。通过对这
→
PDF
2 months ago
基于 3D 增强的对比知识蒸馏,用于基于图像的物体位姿估计
该研究论文提出了一种基于图像的物体姿态估计方法,利用多模态方法学习的 3D 知识通过对比知识蒸馏框架有效地转移给单模态模型,使其在没有 3D 信息的情况下提升物体姿态估计准确率,实验证明了该方法的有效性。
PDF
2 years ago
Prev
Next