具有批量归一化的 ImageNet 预训练模型
本文重新评估了使用新的优化和数据增强方法训练的基准 ResNet-50 模型的性能,并以此为基线,在 ImageNet 数据集上获得了 80.4%的 top-1 准确率,同时提供了预训练模型和更好的训练设置。
Oct, 2021
本篇论文分析了 ResNet 的简化模型,并认为 ResNet 的好处与其对初始权重的选择较为不敏感有关系。此外,本文还演示了如何利用批归一化提高深度 ResNets 的反向传播能力,而无需调整初始权重值。
Sep, 2017
从一种大型的 ResNet152 骨干网络开始,本文通过将其从 51 个块降至 5 个块,将参数和 FLOPs 的数量降低了 6 倍以上,同时保留了性能,然后在 3 个块之后将模型分割为多个分支,创建一个子网络组合以提高性能。在 40 个图像分类数据集上的实验证明,本文的技术在与 “经典骨干微调” 相当甚至更好的性能的同时,实现了更小的模型尺寸和更快的推理速度。
Oct, 2023
提出了一种简单的卷积神经网络架构 (SimpleNet),在保持计算和内存效率的同时,具有与更复杂的 CNN 相媲美的性能,在多个基准测试中表现出色,包括 CIFAR-10,MNIST,CIFAR-100 和 SVHN,甚至在 ImageNet 数据集中也优于许多更大更深的 CNN 模型。
Aug, 2016
本文提出了一种名为 RepVGG 的卷积神经网络架构,通过结构重参数化技术实现了训练时和推理时架构的解耦,并在 ImageNet 上取得了超过 80%的 top-1 精度。与现有的 EfficientNet 和 RegNet 等模型相比,RepVGG 模型具有更快的速度和更好的精度 - 速度平衡。
Jan, 2021
本文系统研究了模型的缩放并提出了一种基于网络深度、宽度和分辨率的平衡方法,进而使用神经架构搜索设计了一种新的基线网络并扩展成一系列模型,称为 EfficientNets,这些 EfficientNets 在多项测试中取得了更好的准确性和效率,包括在 ImageNet 数据集上达到了 84.3% 的 top-1 准确率,在成为当前最佳的 ConvNet 的推理速度比其快 6.1 倍、参数更少的情况下,这是一个领先的结果。
May, 2019
该研究评估了多个轻量级、预训练的 CNN 骨干网络在各种不同数据集上的性能,包括自然图像、医学图像、星系图像和遥感图像,并提供了关于计算机视觉领域不同骨干网络性能和有效性的可行见解,为模型选择提供指导。
Jun, 2024
本研究设计和训练了一个大小不超过 500 万可训练参数的修改版 ResNet 模型用于 CIFAR-10 图像分类,通过一些训练策略和合适的超参数,最终测试准确率达到 96.04%。
Jun, 2023
介绍了一个深度双流架构 Resnet in Resnet(RiR),该架构推广了 Residual networks(ResNets)和标准 CNNs,且无计算开销,通过在 CIFAR-10 上实现,RiR 不断提高性能、在 CIFAR-100 上创新了新的最优结果
Mar, 2016