Oct, 2023

RRR-Net:重用、减少和循环利用深度骨干网络

TL;DR从一种大型的 ResNet152 骨干网络开始,本文通过将其从 51 个块降至 5 个块,将参数和 FLOPs 的数量降低了 6 倍以上,同时保留了性能,然后在 3 个块之后将模型分割为多个分支,创建一个子网络组合以提高性能。在 40 个图像分类数据集上的实验证明,本文的技术在与 “经典骨干微调” 相当甚至更好的性能的同时,实现了更小的模型尺寸和更快的推理速度。