少乘法的神经网络
本文研究发现深度神经网络在训练时即使将权重量化并投影为二进制表示也能取得优秀的性能,而在测试阶段,这些网络对于除量化以外的扭曲,包括加性和乘性噪声以及一类非线性投影具有显著的鲁棒性。此外,我们还发现基本水平的鲁棒性可以通过调整或删除一个通用的训练启发式(即在反向传播过程中投影量化权重)来实现,包括使用其他类型的权重投影和简单地剪裁权重。最后,我们提出了一种随机投影规则,实现了无数据增强条件下 CIFAR-10 中 7.64% 的测试错误率的最新记录。
Jun, 2016
通过在三个基准数据集上使用三种不同的格式(浮点数、固定点和动态固定点)进行训练,评估乘法精度的影响,研究发现,即使在训练神经网络时使用 10 位乘法,非常低的精度也足够运行和训练最新的神经网络。
Dec, 2014
本文介绍了一种对二值化神经网络进行训练的方法,并在 Torch7 和 Theano 两个框架下,对 MNIST、CIFAR-10 和 SVHN 数据集进行了实验,取得了近乎领先水平的结果。通过在前向传递过程中使用二值化的权重和激活值,可以大幅减少内存消耗,用位运算取代大多数算术运算,并且使用二进制矩阵乘法 GPU 内核可以比未优化的 GPU 内核快 7 倍,而不会损失分类准确度。
Feb, 2016
本文提出了一种二元随机学习算法,通过引入随机二元化,有符号二元化和分步权重更新,修改了所有基础神经网络操作,不需要高精度的处理,可以在硬件中实现,提高了神经网络系统的能效,并较高精度学习算法更有效。
Apr, 2023
本文提出了一种自适应分层比例缩放的位编码量化(ALS-POTQ)方法和无乘积 MAC 的方法(MF-MAC),可以消除线性层中所有 FP32 乘法和重量偏差校正和参数化比率裁剪技术来提高稳定性和提高准确性,从而获得比现有方法更高的能源效率和准确性。
Feb, 2023
本文提出了三种实用方法来优化低精度深度卷积神经网络,包括渐进式量化、随机量化以及联合知识蒸馏来提高网络训练。通过实验证明,该方法在各种数据集上表现良好。
Aug, 2019
本篇论文介绍了一种通过二值化权重和激活训练神经网络的方法,并在 Torch7 和 Theano 框架上进行了实验,在 MNIST、CIFAR-10 和 SVHN 数据集上取得了接近最佳水平的结果。同时,作者提出了一种二进制矩阵乘法 GPU 核函数,使得 MNIST BNN 可以比优化前快 7 倍,而不影响分类准确性。
Feb, 2016
本研究介绍了一种训练低精度神经网络的方法,该方法使用二进制操作代替计算,达到降低内存大小、减少电力消耗的目的。经过 MNIST、CIFAR-10、SVHN、ImageNet 和 Penn Treebank 数据集的测试,结果表明 1 位权重和 2 位激活的量化版本的 AlexNet 能够达到 51% 的准确率,训练过程中也能使用仅有的二进制操作实现损失函数的计算,并在损失部分的代码上进行了优化,使得 QNN 的运行速度能比未优化的 GPU 加速速度快七倍,并且没有影响分类准确性。
Sep, 2016
利用低精度的神经网络进行量化,可以通过减少内存消耗和优化位运算实现更高的效率。本文提出低精度神经网络的第三个优点是在一些对抗攻击中有更好的鲁棒性,最坏情况下的表现也可以与高精度模型媲美。作者着重于量化权重和激活到 +-1 的非缩放二进制神经网络,在黑盒和白盒实验中探究其应对逐步攻击的能力。该方法可以在不人为掩盖梯度的情况下保证模型的安全性。
Nov, 2017