BriefGPT.xyz
Feb, 2020
相干梯度: 一种理解基于梯度下降的优化中泛化性质的方法
Coherent Gradients: An Approach to Understanding Generalization in Gradient Descent-based Optimization
HTML
PDF
Satrajit Chatterjee
TL;DR
本文提出了一个关于如何解释神经网络使用梯度下降算法泛化能力较强的假设Coherent Gradients,并支持该假设的启发式论证和简单实验证明。同时,该分析为防止过拟合提出了一种自然而然的梯度下降修改方法。
Abstract
An open question in the
deep learning
community is why
neural networks
trained with
gradient descent
generalize well on real datasets even
→