CVPRApr, 2020

通过奇异向量正交正则化和奇异值稀疏化学习低秩深度神经网络

TL;DR本研究提出了一种名为 SVD training 的神经网络压缩方法,通过正交性正则化和奇异值剪枝等技术,可以在训练过程中显式地实现降低矩阵秩的目标,从而更有效地减少 DNN 算法在低性能设备上的计算负担。