这篇论文研究了深度神经网络的权重初始化和激活函数对其训练性能的影响,证明了边缘混沌状态具有优异的表现,同时提出了一类叫做 Swish 的激活函数,可以优化信息传递。
May, 2018
本文研究了沿着混乱边缘初始化的深度前馈网络,发现其具有指数级的培训能力。同时探讨了 tanh 激活函数的饱和效果,发现这个效果会影响到混乱边界的训练效率,并提出了最大熵的相空间平衡特性。研究表明,在混乱边缘初始化是实现最优训练能力的必要条件,但不足以满足这个目标。
Apr, 2023
研究论文探讨了激活函数对过度参数化神经网络训练的影响,指出了平滑的激活函数在训练中的优势和尺寸较小的数据维度可能导致训练速度变慢的问题,并讨论了这些结果的应用和推广。
Aug, 2019
本文介绍了深度神经网络在不同领域的应用,探讨了激活函数选择的重要性及其优化方法,提出了两个新的激活函数 ELiSH 和 HardELiSH,并使用基于遗传算法的方法在三个图像分类基准测试中得到了比传统基线更好的效果。
Aug, 2018
本论文研究了激活函数对神经网络梯度方差的影响,并提出了一种对激活函数进行归一化的方法,以保持所有层的梯度方差相同,从而提高神经网络的收敛性。研究发现,归一化激活函数可显著提高模型性能。
Aug, 2022
通过引入新的权重初始化方法,本论文证明了所提出的初始权重矩阵的特性,展示了这些特性如何促进信号向量的有效传播,并通过一系列实验和与现有方法的比较展示了新的初始化方法的有效性。
Nov, 2023
使用自适应激活函数,设计了一种用于改进深层神经网络架构的分段线性激活函数,并在 CIFAR-10 等数据集上取得了最先进的表现。
Dec, 2014
本文研究了具有阈值激活函数的神经网络的权重衰减正则化训练问题,发现在网络的最后一个隐藏层宽度超过一定阈值时,这些问题可以被等价地形式化为标准的凸优化问题,类似于 LASSO 方法,并且通过各种数字实验验证理论结果。
Mar, 2023
介绍了人工神经网络中激活函数的主要概念及其作用,讨论了各种激活函数类型、应用、限制和替代方案。
Apr, 2022
本文介绍了常见的非线性激活函数,并对它们的特点进行了评估。同时,分析了深层神经网络及其与权重初始化方法的关系,其中将特别关注节点的入度和出度对整个网络的影响。
Apr, 2018