BriefGPT.xyz
大模型
Ask
alpha
关键词
post-training intra-layer multi-precision quantization
搜索结果 - 1
通过训练后的层内多精度量化减少 DNN 内存占用
为了在资源受限的边缘设备上部署深度神经网络模型并保护隐私,本文介绍了一种有效减小深度神经网络内存占用的技术,该技术名为后训练内层多精度量化(PTILMPQ),通过估计网络中层和通道的重要性,实现了在量化过程中的精确位分配。实验结果表明,PT
→
PDF
3 months ago
Prev
Next