Nov, 2023

LayerCollapse:神经网络的自适应压缩

TL;DR利用 LayerCollapse 方法进行适应性模型压缩,通过消除网络中的非线性并将两个连续的全连接层合并为单个线性变换,同时减少层数和参数数量,提高模型效率;引入压缩感知正则化器,根据数据集质量和模型表现压缩模型,减少过拟合;实验证明 LayerCollapse 在多个细粒度分类基准测试中实现有效的压缩和正则化,最高在训练后压缩 74% 但准确度损失最小;与知识蒸馏方法对比,在 ImageNet 数据集上计算效率提高五倍,整体准确度提高 8%。