本文探讨增加深度对神经网络性能提升的边际效益递减问题,提出一种更高效的残差网络结构并在图像分类和语义分割等领域实现了显著优越性能。
Nov, 2016
本文重新设计 Wide-ResNets 的架构用于最新的全景分割任务,通过简单且有效的 Squeeze-and-Excitation 和 Switchable Atrous Convolution 结合调整网络的宽度和深度,形成了一系列 SWideRNets 并通过网格搜索得到了多种在快速和强大模型方案下都可以显著提高全景分割数据集状态的 SWideRNets。
Nov, 2020
本文提出了一种新的卷积神经网络架构,该架构通过扩展残差网络的层数,明确利用非常深网络的集成表现,并使模型变宽而不是更深,从而显著提高了准确性。受多元残差网络的并行结构启发,本研究还探讨了一种模型并行技术,该技术使残差块的计算分布在处理器之间,计算复杂度提高了 15%。最后,我们证明了我们模型在 ImageNet 分类数据集上优于大多数现有模型的表现。
Sep, 2016
本文提出了一种残差学习框架,以优化超过 VGG 网络 8 倍深度的残差网络在 ImageNet 数据集上的分类任务,以及在 COCO 目标检测数据集上取得了 28% 的相对提升。
Dec, 2015
本文介绍了一种加权残差网络,解决了原有残差网络在极深的情况下难以收敛的问题,由于该网络可以有效高效地组合来自不同层的残差,因此使得算法准确性和收敛速度都有了一致的提高。
May, 2016
本篇论文分析了 ResNet 的简化模型,并认为 ResNet 的好处与其对初始权重的选择较为不敏感有关系。此外,本文还演示了如何利用批归一化提高深度 ResNets 的反向传播能力,而无需调整初始权重值。
Sep, 2017
本文通过共享同一空间尺度下的残差块中卷积层的权重,提出了一种名为 ShaResNet 的深度残差网络,使网络参数得到显著减少,同时在图像分类任务中保证了准确率。
Feb, 2017
本文介绍了一种名为 “宽残差 Inception”(WR-Inception)的神经网络模型,它采用深层和宽层,结构基于残差 Inception 单元,捕获同一要素图上各种大小的对象。为验证该模型的有效性,本文进行了两项实验:在 CIFAR-10 / 100 上的分类任务和在 KITTI 数据集上使用单发多框检测器(SSD)进行路面物体检测任务。
探索使用逐渐增加特征映射维度的方式,提高深度残差神经网络的泛化能力,并提出了一种新的残差单元,增强了其分类准确性;实验表明,与原始的残差网络相比,该网络结构具有更好的泛化能力。
Oct, 2016
本文提出一种新的残差网络架构 RoR,通过在现有的残差网络中添加层次化的快捷连接实现优化,从而提升其学习能力,进而提高性能,实验结果展示 RoR 在各种残差网络类型中的有效性和通用性,并在多个数据集上达到最佳性能表现。
Aug, 2016