Dec, 2023

在线蒸馏中的集成学习解耦知识

TL;DR通过独立的教师生成在线知识蒸馏的分离知识,以增加网络之间的差异性和降低模型崩溃的可能性,并采用衰减集成方案来提高教师的监督韧性。通过对 CIFAR-10、CIFAR-100 和 TinyImageNet 的广泛实验验证了我们方法的优越性,并进行了消融研究和进一步分析来证明其有效性。