Apr, 2020
通过奇异向量正交正则化和奇异值稀疏化学习低秩深度神经网络
Learning Low-rank Deep Neural Networks via Singular Vector Orthogonality
Regularization and Singular Value Sparsification
TL;DR本研究提出了一种名为SVD training的神经网络压缩方法,通过正交性正则化和奇异值剪枝等技术,可以在训练过程中显式地实现降低矩阵秩的目标,从而更有效地减少DNN算法在低性能设备上的计算负担。