May, 2023
大卷积核是否比Transformer更适合为ConvNets提供指导?
Are Large Kernels Better Teachers than Transformers for ConvNets?
TL;DR研究表明,现代大核卷积神经网络对于小核卷积神经网络的教学更加有效,从而更适合于知识蒸馏。在使用大到小核蒸馏的过程中,大卷积神经网络的良好特性,例如更大的有效接收域,可以顺利地传递到学生身上,并且在ImageNet上实现了83.1%的top-1准确度,超过了当前的SOTA方法,包括ConvNeXt V2和Swin V2