深入卷积
本文通过使用小的卷积滤波器的架构,对不断增加深度的网络的精度进行了全面评估,表明通过将深度推到 16 至 19 个权重层,可以显著提高以往技术水平,并在 ImageNet Challenge 2014 中获得了第一和第二名。我们还证明了该表示法在其他数据集上具有很好的泛化性能,并公开了我们表现最佳的两个 ConvNet 模型,以便进一步研究深度视觉表示在计算机视觉中的应用。
Sep, 2014
本篇论文主要研究了如何利用适当分解卷积和激进的正则化等方法,使卷积神经网络计算效率最大化,并以 ILSVRC2012 分类挑战作为基准,报告了使用少于 2500 万参数的 5 亿乘加运算成本的网络,评估单帧评估的 top-1 误差 21.2%和 top-5 误差 5.6%的显著成果。
Dec, 2015
本文提出了一种残差学习框架,以优化超过 VGG 网络 8 倍深度的残差网络在 ImageNet 数据集上的分类任务,以及在 COCO 目标检测数据集上取得了 28% 的相对提升。
Dec, 2015
本文提出了一种新的卷积神经网络架构 GoogLe2Net,其中 ResFRI 或 Split-ResFRI 创造横向通道和残差连接,使得信息可以在卷积层之间流动,并在细粒度上表达多尺度特征,从而在图像分类等任务中取得更好的结果。
Jan, 2023
本文提出了一种修改的卷积网络 Inception Network,在去除 dense prediction 和 pooling 的缺点基础上,将大型卷积核添加在每一层中,应用于典型的图像到图像学习问题中,表现出了比同类问题还要好的效果,如:皮肤检测,语义分割和压缩伪像去除等。
Jan, 2017
通过给训练数据增加更多的图像变换、给测试时产生更多的预测和使用应用于更高分辨率图像的补充模型等多种技术,我们改进了目前基于深度卷积神经网络的图像分类流程,并在 Imagenet 大规模视觉识别挑战赛 2013 中获得了前五名,我们的系统分类错误率为 13.55%,相对于上一年的获胜者,出现了超过 20%的相对提高。
Dec, 2013
提出了一种简单的卷积神经网络架构 (SimpleNet),在保持计算和内存效率的同时,具有与更复杂的 CNN 相媲美的性能,在多个基准测试中表现出色,包括 CIFAR-10,MNIST,CIFAR-100 和 SVHN,甚至在 ImageNet 数据集中也优于许多更大更深的 CNN 模型。
Aug, 2016
本文探讨增加深度对神经网络性能提升的边际效益递减问题,提出一种更高效的残差网络结构并在图像分类和语义分割等领域实现了显著优越性能。
Nov, 2016
本研究提出了一种新型的深度网络架构 ——PolyInception,通过在网络不同区间柔性地插入 PolyInception 模块进行深度学习,并在架构效率指导下选择合适的模块,提高网络的表达能力,降低了计算成本,相较于同类网络,在 ILSVRC 2012 基准测试中,其 top-5 验证错误率分别从 4.9% 降至 4.25% 和从 3.7% 降至 3.45%。
Nov, 2016
本研究提出了一种用于单幅图像超分辨率的高精度方法,利用 VGG-net 进行训练,使用 20 个卷积层避免过拟合,训练方法基于小滤波器,只学习残差,并使用极高的学习率。实验表明,该方法在精度上优于现有方法。
Nov, 2015