BriefGPT.xyz
Jul, 2021
深度神经网络的连续与离散优化
Continuous vs. Discrete Optimization of Deep Neural Networks
HTML
PDF
Omer Elkabetz, Nadav Cohen
TL;DR
研究了梯度下降法与梯度流动在深度学习中的关系,发现深度神经网络上的梯度流动轨迹存在良好曲率,能够很好地近似梯度下降法。理论和实验结果表明,梯度下降法具有较高的计算效率和全局最小解收敛保证。
Abstract
Existing analyses of
optimization
in
deep learning
are either continuous, focusing on (variants of)
gradient flow
, or discrete, directly t
→