Oct, 2024
边际的特性:均匀神经网络中最陡下降法的隐性偏差
Flavors of Margin: Implicit Bias of Steepest Descent in Homogeneous
Neural Networks
TL;DR本研究探讨了包括梯度下降、符号下降和坐标下降在内的最陡下降法的隐性偏差,填补了在深度均匀神经网络中这一领域的研究空白。我们提出了一种优化问题的广义平稳性概念,并证明这些算法在达到完美训练准确度后,几何边际会开始增加,进而逐步减少广义的Bregman散度,为理解深度学习中的算法偏差提供了新的视角和实证支持。