Jun, 2024

基于损失梯度高斯宽度的泛化和优化保证

TL;DR通过 Loss Gradient Gaussian Width (LGGW) 的复杂度度量,我们提出一种直接基于 LGGW 的泛化保证方法,在梯度支配条件下实现,其在深度模型中进行实证研究并证明其有效性。同时,我们展示了有限和优化的样本重用并不会导致经验梯度偏离总体梯度,只要 LGGW 较小。这些基于 LGGW 的优化和泛化保证是首次提出的,避免了基于预测器 Rademacher 复杂性的分析缺陷,并对深度模型的定量界限提供了重要前景。