深金字塔残差网络
通过在卷积残差网络中引入长短时记忆机制,增强了记忆机制加强卷积神经网络的性能,使得该方法在 CIFAR-100 基准测试上优于其他最先进的技术,并且在 CIFAR-10 和 SVHN 基准测试上与之相当,而且相比于深度相当的深度残差神经网络,网络宽度更大,深度更小,总体计算量更少。
Jun, 2016
本文介绍了一种通过采用 dilated residual networks 提高图像分类准确性及在物体定位和语义分割等下游应用中的效果,同时探究了这种方法引入的网格伪影问题并提出了解决方法。
May, 2017
本文提出了一种新的卷积神经网络模型,称为双卷积神经网络,该模型通过共享权重参数进行优化,在图像分类领域有着显著的性能提升。在 CIFAR-10,CIFAR-100 和 ImageNet 等图像分类基准测试中,该模型的性能均显著优于其他竞争模型。同时,本文还说明了双卷积神经网络在多方面性能均有体现,既可以构建更准确的模型,又可以以牺牲一定准确性的代价来减少模型的内存占用。
Oct, 2016
本文提出了一种残差学习框架,以优化超过 VGG 网络 8 倍深度的残差网络在 ImageNet 数据集上的分类任务,以及在 COCO 目标检测数据集上取得了 28% 的相对提升。
Dec, 2015
通过对 ResNet 模块架构的详细实验研究,本文提出了一种新的网络架构 —— 宽残差网络 (WRNs),通过降低深度、增加宽度优化 ResNet 网络,证明其在准确度和效率上优于传统的浅而深层的残差网络模型,实现了在 CIFAR, SVHN, COCO 以及 ImageNet 等数据集上的准确度和效率的新突破。
May, 2016
本文提出了一种新的卷积神经网络架构,该架构通过扩展残差网络的层数,明确利用非常深网络的集成表现,并使模型变宽而不是更深,从而显著提高了准确性。受多元残差网络的并行结构启发,本研究还探讨了一种模型并行技术,该技术使残差块的计算分布在处理器之间,计算复杂度提高了 15%。最后,我们证明了我们模型在 ImageNet 分类数据集上优于大多数现有模型的表现。
Sep, 2016
本文提出了一种新型的残差稠密网络 (RDN),该网络通过引入残差稠密块 (RDB) 来充分利用原始低分辨率图像的层级特征,并通过局部特征融合和全局特征融合来稳定更广泛的网络培训,进而在基准数据集上展示了 RDN 相对于现有最先进的方法所取得的更高性能。
Feb, 2018
本文探讨增加深度对神经网络性能提升的边际效益递减问题,提出一种更高效的残差网络结构并在图像分类和语义分割等领域实现了显著优越性能。
Nov, 2016
该论文提出了一种适应性下采样方案,通过允许以更高的分辨率处理信息丰富的区域而不是信息较少的区域,从而提高了各种已建立 CNN 的成本 - 准确性权衡效果。
May, 2023