May, 2019

神经网络权重的可压缩性丧失

TL;DR本文介绍一种压缩性损失的方法,使神经网络学习高度压缩的神经网络权重,采用这种方法可以使信号的非零部分具有极低的熵,从而整个信号更容易被压缩,我们证明了目标函数的临界点可以使权重向量成为三元信号,其取决于稀疏度,我们实验了这种方法,结果发现它可以最大限度地保留权重,使神经网络的压缩比与现有的最先进方法相似。