残差网络表现得像相对较浅的网络集合
本文表明深残差网络(Deep Residual Networks)可以视作一系列相对较浅网络的集合,并通过广义自旋玻璃模型分析其优化过程中的临界点数量及 Batch Normalization 技术等因素对网络深度动态变化的影响。
Nov, 2016
本文提出了一种新的卷积神经网络架构,该架构通过扩展残差网络的层数,明确利用非常深网络的集成表现,并使模型变宽而不是更深,从而显著提高了准确性。受多元残差网络的并行结构启发,本研究还探讨了一种模型并行技术,该技术使残差块的计算分布在处理器之间,计算复杂度提高了 15%。最后,我们证明了我们模型在 ImageNet 分类数据集上优于大多数现有模型的表现。
Sep, 2016
本篇论文通过定性视觉和实证分析,研究残差网络中残差跳转连接的作用,揭示残差跳转连接强制不同层次的卷积层区分特征的实际意义,证明残差网络遵循卷积神经网络慢慢学习局部特征并学习整个物体全局特征的普适性。
Jan, 2017
研究表明,Residual networks 可以通过迭代改进特征来执行表示学习和迭代细化,但对于这一过程的全面理解仍然是一个研究课题,并且共享残差层会导致表征爆炸和过拟合,需要采用现有的策略来缓解这个问题。
Oct, 2017
本文通过严谨的证明表明,深度残差单元的非线性残差确实表现出了优化行为,并且极小化问题形成凸起,并证明了当在标准随机梯度下降训练网络时可以实现比任何线性预测器更好的目标值。
Apr, 2018
ResNet 是一种残差网络,利用快捷连接显著减少了训练的难度,同时在训练和泛化误差方面都实现了很好的性能提升,我们提供了快捷连接 2 的独特理论解释,它可以使训练非常深的模型与浅的模型一样容易,同时我们的实验证明了通过使用快捷连接 2 进行小权重初始化,可以从不同的角度(最终损失、学习动态和稳定性,以及沿着学习过程的海森矩阵的行为)实现显着更好的结果。
Nov, 2016
本文提出一种基于自相似性的神经网络宏架构设计策略,生成结构准确的被截断的分形的深度网络,并与标准残差网络在 CIFAR 和 ImageNet 分类任务上表现相当好,实验证明残差表示可能不是极深度卷积神经网络成功的基础,而是在训练中能够从有效浅层转变到深层,同时开发的 Drop-path 方法能够规范提取高性能固定深度的子网络。
May, 2016
本文探讨增加深度对神经网络性能提升的边际效益递减问题,提出一种更高效的残差网络结构并在图像分类和语义分割等领域实现了显著优越性能。
Nov, 2016
本文提出了一种残差学习框架,以优化超过 VGG 网络 8 倍深度的残差网络在 ImageNet 数据集上的分类任务,以及在 COCO 目标检测数据集上取得了 28% 的相对提升。
Dec, 2015