探索使用逐渐增加特征映射维度的方式,提高深度残差神经网络的泛化能力,并提出了一种新的残差单元,增强了其分类准确性;实验表明,与原始的残差网络相比,该网络结构具有更好的泛化能力。
Oct, 2016
本文探讨增加深度对神经网络性能提升的边际效益递减问题,提出一种更高效的残差网络结构并在图像分类和语义分割等领域实现了显著优越性能。
Nov, 2016
本文提出了一种新的卷积神经网络架构,该架构通过扩展残差网络的层数,明确利用非常深网络的集成表现,并使模型变宽而不是更深,从而显著提高了准确性。受多元残差网络的并行结构启发,本研究还探讨了一种模型并行技术,该技术使残差块的计算分布在处理器之间,计算复杂度提高了 15%。最后,我们证明了我们模型在 ImageNet 分类数据集上优于大多数现有模型的表现。
Sep, 2016
本文提出了一种残差学习框架,以优化超过 VGG 网络 8 倍深度的残差网络在 ImageNet 数据集上的分类任务,以及在 COCO 目标检测数据集上取得了 28% 的相对提升。
Dec, 2015
本论文提出和评估了几个深度神经网络架构,用于对比以往更长时间段内视频图像信息的组合。通过一些新的方法,包括卷积时间特征池化和循环神经网络结构,该论文指出最佳神经网络在 Sports 1 million 数据集(73.1%对 60.9%)和 UCF-101 数据集中(88.6%对 88.0%)及无附加光流信息(82.6%对 72.8%)上明显性能提高。
Mar, 2015
本研究旨在扩展残差网络的优点,如快速训练,用于低级视觉问题,即单个图像超分辨率,通过引入跳跃连接和逐渐改变网络形状的策略,该方法在单个图像超分辨率上取得了最新的 PSNR 和 SSIM 结果,并产生了视觉上令人愉悦的结果。
Mar, 2017
通过对 ResNet 模块架构的详细实验研究,本文提出了一种新的网络架构 —— 宽残差网络 (WRNs),通过降低深度、增加宽度优化 ResNet 网络,证明其在准确度和效率上优于传统的浅而深层的残差网络模型,实现了在 CIFAR, SVHN, COCO 以及 ImageNet 等数据集上的准确度和效率的新突破。
May, 2016
本研究提出了一种用于单幅图像超分辨率的高精度方法,利用 VGG-net 进行训练,使用 20 个卷积层避免过拟合,训练方法基于小滤波器,只学习残差,并使用极高的学习率。实验表明,该方法在精度上优于现有方法。
Nov, 2015
本研究提出基于 ResNet 架构的参数共享和自适应计算时间的网络,该网络比原始网络更小,能够根据输入图像的复杂性调整计算成本。
Apr, 2018
通过使用残差通道注意力网络 (RCAN) 的残差内残差结构 (RIR) 和通道注意力机制,我们可以实现深度图像超分辨率,并在准确度和视觉效果上优于现有方法。
Jul, 2018