深度残差网络用于图像识别
本文探讨增加深度对神经网络性能提升的边际效益递减问题,提出一种更高效的残差网络结构并在图像分类和语义分割等领域实现了显著优越性能。
Nov, 2016
本文提出一种名为 epsilon-ResNet 的深度学习网络,通过单次训练中的层选取达到在图像识别等多个领域中达到与超深残差网络相当甚至更好的性能,同时减少了 80% 左右的参数数量。
Apr, 2018
本文提出了一种新的卷积神经网络架构,该架构通过扩展残差网络的层数,明确利用非常深网络的集成表现,并使模型变宽而不是更深,从而显著提高了准确性。受多元残差网络的并行结构启发,本研究还探讨了一种模型并行技术,该技术使残差块的计算分布在处理器之间,计算复杂度提高了 15%。最后,我们证明了我们模型在 ImageNet 分类数据集上优于大多数现有模型的表现。
Sep, 2016
通过对 ResNet 模块架构的详细实验研究,本文提出了一种新的网络架构 —— 宽残差网络 (WRNs),通过降低深度、增加宽度优化 ResNet 网络,证明其在准确度和效率上优于传统的浅而深层的残差网络模型,实现了在 CIFAR, SVHN, COCO 以及 ImageNet 等数据集上的准确度和效率的新突破。
May, 2016
本文中,我们设计了一种使用残差学习的卷积神经网络,并研究了其对于嘈杂的远程监督关系抽取任务的影响,结果表明即使在只有 9 层 CNN 的情况下,使用恒等映射也可以显著提高远程监督关系抽取的性能。
Jul, 2017
本文通过使用小的卷积滤波器的架构,对不断增加深度的网络的精度进行了全面评估,表明通过将深度推到 16 至 19 个权重层,可以显著提高以往技术水平,并在 ImageNet Challenge 2014 中获得了第一和第二名。我们还证明了该表示法在其他数据集上具有很好的泛化性能,并公开了我们表现最佳的两个 ConvNet 模型,以便进一步研究深度视觉表示在计算机视觉中的应用。
Sep, 2014
探索使用逐渐增加特征映射维度的方式,提高深度残差神经网络的泛化能力,并提出了一种新的残差单元,增强了其分类准确性;实验表明,与原始的残差网络相比,该网络结构具有更好的泛化能力。
Oct, 2016
通过在卷积残差网络中引入长短时记忆机制,增强了记忆机制加强卷积神经网络的性能,使得该方法在 CIFAR-100 基准测试上优于其他最先进的技术,并且在 CIFAR-10 和 SVHN 基准测试上与之相当,而且相比于深度相当的深度残差神经网络,网络宽度更大,深度更小,总体计算量更少。
Jun, 2016
该研究论文提出了一种深度卷积神经网络架构 ——Inception,该架构在 ImageNet 图像识别竞赛中取得了新的研究成果,提高了网络的深度和宽度,同时保持计算资源的稳定利用,并基于 Hebbian 原理和多尺度处理原则进行建构。具体表现为 GoogLeNet 网络,在分类和检测领域取得了不错的成绩。
Sep, 2014
本研究发现在 Inception 网络中加入残差连接有助于加速训练并提高图像识别性能,同时还提出了几种优化的网络结构,实验结果在 ILSVRC 2012 分类任务中取得了显著的性能提升。
Feb, 2016