Apr, 2023
自监督视觉表示学习的多模式在线知识蒸馏
Multi-Mode Online Knowledge Distillation for Self-Supervised Visual
Representation Learning
TL;DR本文提出了一种多模在线知识蒸馏方法来提高自监督视觉表征学习,通过自蒸馏和交叉蒸馏两种蒸馏模式,实现了不同模型之间的知识交互,并通过跨注意力特征搜索策略增强了不同模型之间的语义特征对齐,实现了两个异构模型相互吸收知识以提高其表征学习性能。实验证明,这种方法在不同的骨干网络和数据集上都具有较好的性能表现,并且优于现有的 SSL-KD 方法。