关键词fully-connected neural networks
搜索结果 - 4
- 全连接前馈神经网络中权重优化的闭式解决方案
该研究针对全连接前馈神经网络的权重优化问题,提出了使用最小二乘法来实现权重优化的方法。这种方法具有闭合形式解,能够在单次迭代中通过反向传播的方式优化每层神经元的权重,并且能够在几次迭代中适应输入到输出映射不是单射的情况。与现有解决方案相比, - ICLR批归一化的平均场理论
我们研究了全连接前馈神经网络的批标准化问题,并提出了一种均值场理论。研究表明,批标准化会导致梯度爆炸,而这种爆炸无法通过调节初始权重方差或调整非线性激活函数来消除。然而,我们可以通过将网络调整到线性区域来减少梯度爆炸,从而提高网络的可训练性 - AAAIEA-CG:一种用于训练全连接神经网络的近似二阶方法
该研究提出了一个实用的近似二阶方法来训练全连接神经网络,其中包括一个 Hessian matrix 的近似和一个共轭梯度(CG)算法,并且通过与一级近似结合的共轭梯度算法,大大减少了空间和时间复杂度。经验研究表明,该方法具有高效性和效果。
- 利用代数拓扑学表征神经网络的容量
本文提出代数拓扑作为数据复杂性量度,并通过实证分析展示了神经网络的拓扑容量在不同数据复杂度下都呈现相变现象,从而将现有理论和完全连接的神经网络架构的选择联系起来。