Dec, 2021

更多即更少:通过过度参数化诱导稀疏性

TL;DR研究了深度学习模型过度参数化和随机梯度下降的泛化能力现象,探讨了稀疏恢复的情况,提出了一种相应的超参数化均方误差损失函数,证明了该函数的梯度下降可以收敛到最小 L1 范数的好近似解。