Aug, 2024

基于低秩分解的卷积神经网络压缩

TL;DR本研究解决了深度神经网络在边缘设备上的部署受限于计算负荷和内存消耗的问题。提出了一种将变分贝叶斯矩阵分解与正交正则化相结合的模型压缩方法,显著提高了压缩模型在高低压缩比下的性能,同时保持了原始模型的准确性。这一框架的通用性使其适用于其他卷积神经网络,并可轻松整合其他张量分解方法。