Jul, 2024

边缘深度学习质量可扩展量化方法

TL;DR我们的研究旨在减少深度学习模型在边缘计算设备上的能耗和大小,通过使用机器学习技术在深度学习体系结构中的卷积操作。我们提出了系统化质量可扩展设计方法,包括较高抽象级别的质量可扩展量化和较低抽象级别的质量可扩展乘法器。这种方法通过参数压缩和质量可扩展乘法器的设计,可以减小DNN模型的大小并减少能耗,而几乎不需要微调就能保持接近原始权重网络的准确性。在LeNet和ConvNets上的实验证明,该方法在保持准确性接近最先进的同时,实现了多达6%的零元素的增加和多达82.4919%的内存节省。