深度残差网络和权重初始化
通过对 ResNet 模块架构的详细实验研究,本文提出了一种新的网络架构 —— 宽残差网络 (WRNs),通过降低深度、增加宽度优化 ResNet 网络,证明其在准确度和效率上优于传统的浅而深层的残差网络模型,实现了在 CIFAR, SVHN, COCO 以及 ImageNet 等数据集上的准确度和效率的新突破。
May, 2016
本文介绍了一种加权残差网络,解决了原有残差网络在极深的情况下难以收敛的问题,由于该网络可以有效高效地组合来自不同层的残差,因此使得算法准确性和收敛速度都有了一致的提高。
May, 2016
本文通过严谨的证明表明,深度残差单元的非线性残差确实表现出了优化行为,并且极小化问题形成凸起,并证明了当在标准随机梯度下降训练网络时可以实现比任何线性预测器更好的目标值。
Apr, 2018
本文针对深度 ReLU 神经网络早期训练的两种常见失效模式进行研究和识别,为每种模式提供了严格的证明以及如何避免。我们证明了正确的权重初始化以及架构可以使得深层神经网络成功训练,并在实验中证实了我们的理论结果的有效性。
Mar, 2018
本文探讨增加深度对神经网络性能提升的边际效益递减问题,提出一种更高效的残差网络结构并在图像分类和语义分割等领域实现了显著优越性能。
Nov, 2016
本文研究权重规范化神经网络的参数初始化策略,通过使用平均场近似方法,提出了一种新的参数初始化策略。通过超过 2500 次实验,本文展示了所提出的初始化方法在图像数据集上具有更好的泛化性能、超参数值鲁棒性和种子之间的变异性。而且,该初始化方法与学习率预热相结合,能减小权重规范化神经网络与批量规范化神经网络之间性能的差距。
Jun, 2019
研究表明,Residual networks 可以通过迭代改进特征来执行表示学习和迭代细化,但对于这一过程的全面理解仍然是一个研究课题,并且共享残差层会导致表征爆炸和过拟合,需要采用现有的策略来缓解这个问题。
Oct, 2017
本文提出一种名为 epsilon-ResNet 的深度学习网络,通过单次训练中的层选取达到在图像识别等多个领域中达到与超深残差网络相当甚至更好的性能,同时减少了 80% 左右的参数数量。
Apr, 2018