- 深度网络剪枝:关于人脸识别中 CNN 的比较研究
通过深度网络剪枝等方法,对基于小型 SqueezeNet、流行的 MobileNetv2 和 ResNet50 架构的网络进行压缩,以实现移动设备上的可靠且实时的人脸识别。
- 允许或禁止在量化网络之间转移对抗攻击的特性
深度神经网络在量化时不同位数的源网络与目标网络存在转移性,某些攻击类型能增强转移性,通过对网络的量化版本之间的攻击实例的平均转移性可以估计对不同容量和结构的量化目标网络的转移性。
- 三维医学图像分割的训练后网络压缩:通过 Tucker 分解减少计算工作量
通过张量分解研究网络压缩的有效性,我们提出了一种后训练 Tucker 分解方法,以减少预先存在模型的计算要求,而不会影响分割准确性。这种方法能够在计算效率和分割质量之间提供可调节的权衡,并且适用于医学图像分割模型的计算需求降低。
- 通过概率潜空间解释深度神经网络压缩
通过使用信息论分歧度量,本文提出了一个基于深度神经网络 (DNNs) 权重的概率潜在空间的新的理论框架,解释了网络稀疏性与性能之间的关系,并通过实验证明了这个理论的结果。
- 轻盈飞行:一种全可变形蝴蝶网络
通过将滤波矩阵分解为类似于蝴蝶的因子,DeBut 图层可以实现与传统剪枝或低秩分解不同的网络压缩,通过开发自动化的 DeBut 链生成器,首次实现了将 DNN 全面均匀化为所有的 DeBut 图层,从而实现极度稀疏化和压缩,并通过各种例子和 - 三元奇异值分解作为线性映射中更好的参数化形式
我们提出了一种简单而新颖的参数化线性映射形式,称为 Ternary SVD(TSVD)。与传统的奇异值分解(SVD)不同,TSVD 限制了 SVD 中的 U 和 V 矩阵为三值矩阵形式(±1,0)。在计算 U(・)和 V(・)时,TSVD - 深度神经网络压缩对长尾效应的影响研究
本文研究在神经网络的网络压缩过程中如何保持原始网络的语义等价性,并通过对长尾现象的探讨,正向证明了全模型和压缩模型之间的差异与训练数据的记忆程度相关。
- 深度神经网络内存高效训练的流形正则化
本文提出了一种利用归纳偏置驱动的网络设计原则和基于层的流形正则化目标来实现神经网络学习过程中提高内存效率的框架,该框架的使用结果相对于传统学习技术具有更好的绝对性能和实证一般化误差,可以无缝地与现有的网络压缩方法相结合。
- 渐进式通道收缩网络
本文提出了一种逐步通道压缩(PCS)方法,以在运行时动态压缩选定的显著度条目,代替粗略地将它们近似为零。并提出一种运行缩小策略,提供一种测试静态的修剪方案,可以减少滤波器索引的内存访问成本,结果表明 PCS 在图像分类任务中超越了所有基线, - CVPR自适应无数据量化
本文提出了一种基于生成对抗网络的自适应无数据量化方法,通过优化生成样本与量化网络间的适应性,以达到优化网络压缩和适应性的效果,实验证明该方法优于现有技术。
- 基于发育可塑性启发的深度脉冲和人工神经网络自适应修剪
本文提出了一种发育可塑性启发的自适应剪枝方法,可以动态优化神经网络结构,使其学习效率和速度得到持续和显著的提高,尤其是对于神经形态学数据集的脉冲神经网络而言。
- BiFSMNv2:将二进制神经网络推向实际网络性能的关键识别应用
本文介绍了一种强大而高效的二进制神经网络 BiFSMNv2,用于边缘端的关键词识别应用中。使用双尺度可调节的 1 位体系结构,独立分离高低频组分以缓解精度和二进制之间的信息不匹配,并提出了学习传播二元化算子,用于二进制网络的前向和后向传播的 - AAAI使用单次剪枝量化压缩深度神经网络
本文提出了一种新颖的一次性剪枝量化(OPQ)方法,使用预先训练的模型参数解决剪枝和量化问题,并通过统一的通道量化方法提高了训练效率和压缩比。对于 AlexNet/MobileNet-V1/ResNet-50 等模型在 ImageNet 数据 - 傅里叶分析引导的网络剪枝:基于频率的抽签获胜
本文探讨基于傅里叶分析的 Magnitude-Based Pruning (MBP) 算法,在深度学习模型中进行网络压缩和模型设计,并提出了一种新颖的两阶段剪枝方法。实验结果表明,我们提出的基于傅里叶分析的 MBP 算法相比其他传统 MBP - 元学习稀疏隐式神经表示
本文提出了一种利用元学习思想和网络压缩技术相结合的方法,以达到在大量数据集上学习稀疏神经表达的目的,并表明与传统的密集神经网络相比,本方法在相同的参数规模下,能够更快地适应一系列未知信号从而使损失更小。
- ICML实用网络压缩的群组 Fisher 剪枝
本文提出了一种通道剪枝的方法,可以应用于各种复杂的结构,包括具有耦合通道的结构,在各种主干网络上进行了大量的实验,证明该方法可以有效地提高推断速度而不影响准确性。同时纳入了 GPU 推断速度关联性比 FLOPs 更高的记忆占用量的考量。
- DECORE: 深度压缩与强化学习
DECORE 是一种基于强化学习的网络压缩方法,为各种网络架构和数据集提供了最先进的压缩结果,并可以用于基于各种约束条件(如内存和 FLOPs)搜索压缩网络结构。
- 深度神经网络加速的修剪与量化:一份调查报告
本文介绍了深度神经网络中两种压缩技术 —— 剪枝和量化,比较了它们的优劣,并且提出了相关的压缩网络的实用指南。
- CVPR组稀疏性:过滤器剪枝和分解网络压缩之间的枢纽
该论文分析了两种流行的网络压缩技术,在统一的框架下比较了滤波剪枝和低秩分解,同时提出了一种全局的压缩方法并在多个基准测试中表现优异。
- 生成对抗网络压缩的可移植图像翻译模型
提出一种基于知识蒸馏和对抗学习的方法,通过设计更加轻量化的学生生成器和判别器,来实现在移动设备上学习图像生成模型的目标,并在基准数据集上取得了较强的性能表现。