BriefGPT.xyz
大模型
Ask
alpha
关键词
storage consumption
搜索结果 - 1
深度神经网络在线压缩
本文介绍了一种新的深度神经网络压缩方法,在学习阶段增加额外的正则化项来减小全连接层的参数量,并结合 PQ 权重的量化以更节约存储空间。在 MNIST 和 CIFAR10 数据集上进行评估,与现有方法相比,压缩率显著提高。
PDF
9 years ago
Prev
Next