残差网络的残差网络:多层残差网络
通过对 ResNet 模块架构的详细实验研究,本文提出了一种新的网络架构 —— 宽残差网络 (WRNs),通过降低深度、增加宽度优化 ResNet 网络,证明其在准确度和效率上优于传统的浅而深层的残差网络模型,实现了在 CIFAR, SVHN, COCO 以及 ImageNet 等数据集上的准确度和效率的新突破。
May, 2016
介绍了一个深度双流架构 Resnet in Resnet(RiR),该架构推广了 Residual networks(ResNets)和标准 CNNs,且无计算开销,通过在 CIFAR-10 上实现,RiR 不断提高性能、在 CIFAR-100 上创新了新的最优结果
Mar, 2016
本文提出了一种新的卷积神经网络架构,该架构通过扩展残差网络的层数,明确利用非常深网络的集成表现,并使模型变宽而不是更深,从而显著提高了准确性。受多元残差网络的并行结构启发,本研究还探讨了一种模型并行技术,该技术使残差块的计算分布在处理器之间,计算复杂度提高了 15%。最后,我们证明了我们模型在 ImageNet 分类数据集上优于大多数现有模型的表现。
Sep, 2016
本篇论文通过定性视觉和实证分析,研究残差网络中残差跳转连接的作用,揭示残差跳转连接强制不同层次的卷积层区分特征的实际意义,证明残差网络遵循卷积神经网络慢慢学习局部特征并学习整个物体全局特征的普适性。
Jan, 2017
本文提出了一种残差学习框架,以优化超过 VGG 网络 8 倍深度的残差网络在 ImageNet 数据集上的分类任务,以及在 COCO 目标检测数据集上取得了 28% 的相对提升。
Dec, 2015
本文介绍了一种加权残差网络,解决了原有残差网络在极深的情况下难以收敛的问题,由于该网络可以有效高效地组合来自不同层的残差,因此使得算法准确性和收敛速度都有了一致的提高。
May, 2016
本文通过针对残差网络的架构设计探究在拓扑结构、深度和宽度等方面的影响,设计了一系列 RobustResNets,实验证明该网络在多个数据集和对抗攻击中表现出色,达到了 AutoAttack 鲁棒准确率的最新记录。
Dec, 2022
本文提出了一种新型卷积神经网络模块 ——Res2Net,在单个残差块内构建分层残差连接,从而以粒度的方式表示多尺度特征,并扩大每个网络层的感受野范围。在图像分类和目标检测等计算机视觉任务中,Res2Net 优于目前的基线方法。
Apr, 2019
通过在卷积残差网络中引入长短时记忆机制,增强了记忆机制加强卷积神经网络的性能,使得该方法在 CIFAR-100 基准测试上优于其他最先进的技术,并且在 CIFAR-10 和 SVHN 基准测试上与之相当,而且相比于深度相当的深度残差神经网络,网络宽度更大,深度更小,总体计算量更少。
Jun, 2016
本文通过严谨的证明表明,深度残差单元的非线性残差确实表现出了优化行为,并且极小化问题形成凸起,并证明了当在标准随机梯度下降训练网络时可以实现比任何线性预测器更好的目标值。
Apr, 2018