BriefGPT.xyz
Ask
alpha
关键词
compressing neural networks
搜索结果 - 2
利用矩阵分解对循环神经网络进行压缩
基于训练后的秩选择方法 Rank-Tuning,结合训练适应性,我们的方法能够实现高压缩率而无性能损失或性能损失较小,数值实验结果表明,我们可以将循环神经网络压缩至最多 14 倍,最多相对性能降低 1.4%。
PDF
9 months ago
AAAI
相邻网络:一种适用于网络压缩的训练范式
介绍了 Adjoined Networks,一种新的神经网络压缩方法,采用同时训练基础网络和压缩网络的策略,通过压缩并规范化模型,使得模型在保持精度的同时,也具有较小的存储和计算需求。此外,提出了 Differentiable Adjoin
→
PDF
4 years ago
Prev
Next