Feb, 2025
过参数化深度学习网络的零损失保证与显式最小化器
Zero loss guarantees and explicit minimizers for generic
overparametrized Deep Learning networks
TL;DR本文研究了过参数化深度学习网络在监督学习中实现零损失的充分条件,并提供了一种显式构造零损失最小化器的方法,无需梯度下降。此外,研究还表明,网络深度的增加可能会降低梯度下降算法的成本最小化效率。这些发现澄清了在欠参数化与过参数化深度学习中零损失可达性之间的关键差异。