IJCAIOct, 2019
可分解网络:神经网络可扩展低秩压缩
Decomposable-Net: Scalable Low-Rank Compression for Neural Networks
Atsushi Yaguchi, Taiji Suzuki, Shuhei Nitta, Yukinobu Sakata, Akiyuki Tanizawa
TL;DR本文介绍了一种名为 Decomposable-Net 的深度神经网络压缩方法,通过奇异值分解和调整矩阵秩,允许灵活改变模型大小,而无需进行微调,能够在多种模型大小下提高模型性能。