BriefGPT.xyz
大模型
Ask
alpha
关键词
compressibility loss
搜索结果 - 1
神经网络权重的可压缩性丧失
本文介绍一种压缩性损失的方法,使神经网络学习高度压缩的神经网络权重,采用这种方法可以使信号的非零部分具有极低的熵,从而整个信号更容易被压缩,我们证明了目标函数的临界点可以使权重向量成为三元信号,其取决于稀疏度,我们实验了这种方法,结果发现它
→
PDF
5 years ago
Prev
Next