探索使用逐渐增加特征映射维度的方式,提高深度残差神经网络的泛化能力,并提出了一种新的残差单元,增强了其分类准确性;实验表明,与原始的残差网络相比,该网络结构具有更好的泛化能力。
Oct, 2016
本文提出了一种新的卷积神经网络架构,该架构通过扩展残差网络的层数,明确利用非常深网络的集成表现,并使模型变宽而不是更深,从而显著提高了准确性。受多元残差网络的并行结构启发,本研究还探讨了一种模型并行技术,该技术使残差块的计算分布在处理器之间,计算复杂度提高了 15%。最后,我们证明了我们模型在 ImageNet 分类数据集上优于大多数现有模型的表现。
Sep, 2016
本文提出了一种残差学习框架,以优化超过 VGG 网络 8 倍深度的残差网络在 ImageNet 数据集上的分类任务,以及在 COCO 目标检测数据集上取得了 28% 的相对提升。
Dec, 2015
本文介绍了 BlockDrop,利用强化学习选择执行深层网络的哪些层,以最大限度地减少总计算量而不降低预测准确性。实验证明,该模型不仅可以加速推断,还可以编码有意义的视觉信息,最高可使 ImageNet 速度提高 36%,并保持与原模型相同的精确度。
Nov, 2017
通过对 ResNet 模块架构的详细实验研究,本文提出了一种新的网络架构 —— 宽残差网络 (WRNs),通过降低深度、增加宽度优化 ResNet 网络,证明其在准确度和效率上优于传统的浅而深层的残差网络模型,实现了在 CIFAR, SVHN, COCO 以及 ImageNet 等数据集上的准确度和效率的新突破。
May, 2016
本文提出一种名为 epsilon-ResNet 的深度学习网络,通过单次训练中的层选取达到在图像识别等多个领域中达到与超深残差网络相当甚至更好的性能,同时减少了 80% 左右的参数数量。
Apr, 2018
通过在卷积残差网络中引入长短时记忆机制,增强了记忆机制加强卷积神经网络的性能,使得该方法在 CIFAR-100 基准测试上优于其他最先进的技术,并且在 CIFAR-10 和 SVHN 基准测试上与之相当,而且相比于深度相当的深度残差神经网络,网络宽度更大,深度更小,总体计算量更少。
Jun, 2016
介绍了一个深度双流架构 Resnet in Resnet(RiR),该架构推广了 Residual networks(ResNets)和标准 CNNs,且无计算开销,通过在 CIFAR-10 上实现,RiR 不断提高性能、在 CIFAR-100 上创新了新的最优结果
Mar, 2016
本文提出了一种动态分辨率网络(DRNet),它可以根据输入图像的大小动态地确定输入分辨率,从而优化了神经网络的计算负担,并在 ImageNet 上进行了实验验证。
Jun, 2021
本文介绍了一种基于残差连接和多通道上采样的多路径细化网络 RefineNet,能够通过利用深度学习卷积神经网络中的所有信息来对图像进行高精度的预测和语义分割,该方法通过在深度网络中进行残余连接来有效地进行端到端的训练,并应用在七个公共数据集中取得了最优结果。
Nov, 2016