深度神经网络的紧凑且计算效率高的表示
本文介绍了一种基于哈希和降维的结构化多哈希方法,可用于控制任何深度网络的模型大小,从而大幅减少可学习变量且依旧保持较高的精度。作者在 ResNet,EfficientNet 和 MobileNet 等结构中进行了压缩,并且在 CIFAR10 数据集上仅损失 10%而使 ResNet32 模型减少了 75%。
Nov, 2019
本文提出一种基于二次幂值的、专注于稀疏 CNN 的量化策略,并结合无损编码构建一种高压缩比、计算成本低、准确率几乎无损的压缩管线,在 ResNet-50 网络上实现 18.08x CR 的压缩效果,同时也证明更硬件有效。
Mar, 2019
该研究论文介绍了一种名为 HadaNets 的新型神经网络模型,可以在不占用太多内存和训练时间的情况下有效地训练和推理深度神经网络,同时具有优秀的模型压缩性能。
May, 2019
该论文提出 CirCNN,一种使用块循环矩阵表示权重和处理神经网络的基于 FFT 快速乘法的方法,能够从 O(n2)减少计算复杂度并降低存储复杂度,同时保持准确性,并在 FPGA、ASIC 和嵌入式处理器上实现出较高的能效和性能表现。
Aug, 2017
本研究提出了一种使用矩阵而非向量表示信息的深度神经网络分布式表示方法,并衍生出若干新型深度网络结构,展示其在手写数字识别、人脸重构、序列学习、EEG 分类和基于图像的节点分类等任务中的高效性和紧凑性。
Mar, 2017
无需二阶导数信息的最小化问题,通过估计 Hessian 矩阵的方法可以非常有效。然而,传统技术产生的密集矩阵对于大型问题来说是不可行的。有限内存紧凑表示以低秩表示方式表达密集数组,并成为大型确定性问题软件实现的最新技术。我们开发了一种新的紧凑表示方法,通过选择向量进行参数化,并对特定选择的现有公式进行减少。我们展示了紧凑表示在大量特征值计算、张量分解和非线性回归中的有效性。
Mar, 2024
我们提出了一种能够以比现有技术快 12 倍以上的速度压缩矢量并加速近似向量操作的矢量量化算法,用于计算近似点积等操作的速度可提高 10 倍以上,可以加速最近邻搜索和最大内积搜索 100 倍以上,并且与现有的矢量量化算法相比误差竞争力强。
Jun, 2017
提出了一种基于正则化函数的方法,学习高维稀疏表示,以在视觉检索中提高效率,其表现与其他基线方法相竞争,且在实际数据集中具有类似或更好的速度精度平衡。
Apr, 2020
本论文提出了一种针对量化 DNN(deep neural networks)的新型矩阵乘法方法,称为 BiQGEMM。通过一次指令同时访问多个量化权重, BiQGEMM 可以提高计算性能,并通过预计算中间结果来降低计算总量。在大量实验中,BiQGEMM 在 DNN 量化场景下表现出更高的性能。
May, 2020