Apr, 2024
隐藏的协同作用:$L_1$权重归一化与1-路径-范数正则化
Hidden Synergy: $L_1$ Weight Normalization and 1-Path-Norm
Regularization
TL;DR提出了一种名为PSiLON Net的MLP架构,利用$L_1$权重归一化来处理每个权重向量,并在层间共享长度参数。通过简化1-path-norm并提供对高效学习和近稀疏参数的归纳偏差,设计了PSiLON Net。同时,提出了一种修剪方法来在最后阶段实现精确稀疏性。使用改进的1-path-norm作为正则化器,针对小数据环境下过参数化的PSiLON Nets和PSiLON ResNets进行实验,展示了可靠的优化和强大的性能。