- AAAI压缩模型通用攻击的鲁棒性和可转移性
本文研究神经网络压缩、优化技术如剪枝、量化对抗攻击的影响,并比较分析了压缩模型与未压缩模型的对抗攻击鲁棒性,发现不同压缩方法存在差异,并且不同应用具有不同表现。
- 逐层数据无关 CNN 压缩
本文介绍了一种基于预先训练网络的数据自由网络压缩方法,该方法采用分层压缩技术、量化和修剪技术,能够实现高精度、高效率的对神经网络进行压缩,还能与高效的数据生成方法相结合以更进一步提高压缩结果。
- ECCV可微联合剪枝和量化提高硬件效率
我们提出了一种可微的联合剪枝和量化 (DJPQ) 方案,将神经网络压缩视为联合基于梯度的优化问题,在模型剪枝和量化之间自动地进行权衡,以实现硬件效率,相比之下,我们的方法使用户能够在单个培训过程中找到两者之间的最佳权衡。
- ICMLT-Basis: 一种用于神经网络的紧凑表示
介绍了 T-Basis 的新概念,用于压缩神经网络,并能够适配资源受限环境和边缘设备。
- WoodFisher: 神经网络压缩的有效二阶逼近
本研究探讨在深度神经网络中利用二阶信息的现有近似质量并提出一种名为 WoodFisher 的计算逆黑塞矩阵的方法,这一方法可以用于神经网络压缩,该方法在基于镜像对称剪枝的一次性压缩方案上显著优于流行的现有方法,并在进行迭代渐进剪枝时可以自动 - 连续分类:一种新颖的简单值指数族
介绍了一个新的连续分类型分布 - continuous categorical,用于建模单纯值数据。与 Dirichlet 和其他典型选择不同,continuous categorical 产生一个行为良好的概率损失函数,产生无偏估计器,同 - 用于快速模型推理的神经网络压缩框架
该论文提出了一个新的神经网络压缩框架 NNCF,它基于当前各种网络压缩方法进行改进,如稀疏化、量化和二值化。这些方法可以加速推理时间,同时保持原有的准确性。NNCF 可作为训练样本或单独的软件包供使用,并且可以无缝地集成到现有的训练代码中。
- WWWREST: 野外睡眠监测鲁棒高效神经网络
该研究提出了 REST 方法,通过敌对训练和光谱正则化控制神经网络的 Lipschitz 常数,同时通过稀疏正则化实现神经网络压缩,从而解决了将深度学习模型应用于家庭健康监测的噪声与紧凑高效的问题,并针对睡眠阶段分类任务进行了实验验证和手机 - 卷积神经网络结构压缩的分类与评估
简介神经网络压缩,分类不同压缩方法,探讨张量分解和概率压缩等技术,研究证明 SVD 和概率压缩或修剪方法最优。
- 准确的二进制神经网络的前向和后向信息保留
本研究提出了一种信息保留网络(IR-Net)以解决二元神经网络在正向和反向传播中的信息丢失问题,并通过权衡和标准化权重以同时减少量化误差和信息损失来最小化参数的量化误差。在 CIFAR-10 和 ImageNet 数据集上的综合实验表明,所 - DeepCABAC:一种适用于深度神经网络的通用压缩算法
DeepCABAC 是一种压缩深度神经网络的新算法,它利用基于上下文的自适应二进制算术编码器(CABAC)进行编码,并使用一种新颖的量化方案来最小化速率失真函数并考虑到量化对网络精度的影响。实验结果表明,DeepCABAC 在神经网络压缩方 - ICCV相似性保持知识蒸馏
本文提出了新型的知识蒸馏损失函数,其通过保留教师神经网络中相似输入的激活模式特征,指导学生神经网络的训练,使其在保留各自的表征空间中,能够准确地保持输入的相似度。实验结果表明了该方法的潜力。
- IJCAICOP:基于正则化相关滤波器级别修剪的定制化深度模型压缩
该研究提出了一种名为 COP(基于相关性的修剪)的算法来解决神经网络压缩中滤波器无法识别的问题,该算法可以检测冗余过滤器,通过全局标准化使跨层过滤器比较成为可能,并添加参数数量和计算成本规则化条款以便根据用户偏好(更小或者更快)来自定义压缩 - 深度神经网络的熵受限训练
该研究提出了一种神经网络压缩的通用框架,通过最小描述长度原则和熵来量化其复杂度并使用基于梯度的优化技术实现了优秀的压缩结果。
- CVPR少样本知识蒸馏用于高效网络压缩
本论文中,我们提出了一种新的知识蒸馏方案,通过从无标签的少样本数据中提取知识,以实现数据效率和训练 / 处理效率。这种方法可以在不到几分钟的时间内,恢复学生网络的准确性,使用仅全量数据的 1%而不需要传统的微调方法。
- NIPS卷积神经网络中关键路径精简
通过分析卷积神经网络中的滤波器激活、梯度和可视化滤波器的功能,我们揭示了信息流的关键路径,并以其排他性的内在属性为基础,提出了一种关键路径蒸馏方法,可以有效地将卷积神经网络定制为具有更小的模型大小和更少计算量的小型网络。
- 应用于推广限制的神经网络压缩数据相关聚类
提出了基于 Coresets 的神经网络压缩算法,利用重要性采样方案削减冗余参数并保留重要参数,通过理论分析表明压缩网络的大小和准确性得到保证,并给出了新的一般性界限,对神经网络的泛化特性提供了新视角,并在各种神经网络配置和实际数据集上证明 - 对抗性网络压缩
本研究介绍了一种通过对抗网络压缩方法实现从深层精确的模型向更小的模型中转移知识的方法,该方法不需要使用标签进行训练,并在不同的师生模型上泛化;在五个固定的标准数据集上进行广泛的评估表明,该学生模型准确率略有下降,而且性能比其他知识传输方法更