Jun, 2023

使用平衡的超级神经网络学习 CNN 池化架构

TL;DR通过分析 ResNet20 网络在 CIFAR10 实验数据集中使用不同 pooling 配置的训练性能,本文发现预定义下采样配置并非最优选择,可以通过神经网络架构搜索来优化。同时,本文建议采用平衡混合的 SuperNets,可以使权重模型自动关联池化配置,从而降低池化配置之间的权重共享和相互影响。实验结果表明,本文提出的方法在 CIFAR10、CIFAR100 和 Food101 数据集上都优于其他方法,并改善了默认池化配置的性能。