Sep, 2018

ProdSumNet:通过和积矩阵分解减少深度神经网络中的模型参数

TL;DR通过将线性操作分解为较简单线性操作之和的乘积,我们提出了一种可以减少深度神经网络可训练模型参数数量的通用框架,用于各类神经网络结构,并展示了基于该框架的算法在 MNIST 和 Fashion MNIST 数据集上的表现。此外,我们探究了一种新的卷积层变换方法,不再需要卷积操作,这种方法可以任意改变可训练参数数量,并通过使用该框架在 MNIST 数据集上的实验验证了可用更少的参数获得更高的准确率的优点。