Oct, 2019

高效深度神经网络的训练等级裁剪

TL;DR文章提出了一种名为 TRP 的方法,该方法可以将低秩逼近和正则化融入神经网络模型的训练过程中,通过使用随机次梯度下降优化核范数来促进 TRP 中的低秩,从而消除低秩逼近后的微调,并在 CIFAR-10 和 ImageNet 上显着优于以前使用低秩逼近的对比方法。