深度网络的损失感知量化
本文考虑使用权重量化压缩深度网络,将最近提出的有损权重二值化方案推广到三值化,并在前馈和循环神经网络上进行实验,发现该方案优于现有的权重量化算法,精度与全精度网络相当或更高。
Feb, 2018
本文研究发现深度神经网络在训练时即使将权重量化并投影为二进制表示也能取得优秀的性能,而在测试阶段,这些网络对于除量化以外的扭曲,包括加性和乘性噪声以及一类非线性投影具有显著的鲁棒性。此外,我们还发现基本水平的鲁棒性可以通过调整或删除一个通用的训练启发式(即在反向传播过程中投影量化权重)来实现,包括使用其他类型的权重投影和简单地剪裁权重。最后,我们提出了一种随机投影规则,实现了无数据增强条件下 CIFAR-10 中 7.64% 的测试错误率的最新记录。
Jun, 2016
研究二值化训练和量化方法在神经网络训练中的应用,通过在 MNIST、CIFAR10、SVHN 三个数据集上的实验证明,这种方法不仅不会降低分类性能,反而可以实现比标准随机梯度下降训练更好的性能
Oct, 2015
本篇论文介绍了一种通过二值化权重和激活训练神经网络的方法,并在 Torch7 和 Theano 框架上进行了实验,在 MNIST、CIFAR-10 和 SVHN 数据集上取得了接近最佳水平的结果。同时,作者提出了一种二进制矩阵乘法 GPU 核函数,使得 MNIST BNN 可以比优化前快 7 倍,而不影响分类准确性。
Feb, 2016
本文综述了二值神经网络中直接二值化和优化二值化两种算法,其中优化二值化采用了诸如最小化量化误差、改进神经网络损失函数、减少梯度误差等技术来解决二值化不可避免的严重信息损失和优化难题;同时对硬件友好设计和训练技巧等实用方面也进行了讨论,最后对图像分类、目标检测和语义分割等不同任务进行了评估和讨论,并展望了未来研究中可能面临的挑战。
Mar, 2020
本文研究二值神经网络在生成模型中的应用,通过开发一类新的二值权重规范化方法和提供针对这些二值化生成模型的架构设计,成功地训练出使用二值神经网络的生成模型,使得模型的计算成本大幅降低,但损失函数的值接近于原模型,模型体积更小且速度更快。
Oct, 2020
本文引入了一种新颖的方案来训练二值卷积神经网络,使用多个二元权重基的线性组合逼近完全精度权重,并采用多个二元激活来减轻信息丢失的问题,最终实现了一个二值卷积神经网络(ABC-Net),能够在适当的二元权重和激活函数基础上,取得与全精度神经网络相当的预测准确性。
Nov, 2017
本文提出了一种用于训练 BNN 的优化器方法 Bop2ndOrder,使用双曲正切函数对二值化的权重进行优化,在超参数空间的完整消融研究及对比实验中,该方法在 CIFAR10 和 ImageNet 数据集中都能够更快地收敛并获得更好的准确性。
Apr, 2021
本文提出了一种名为 AdaBin 的自适应二值化方法,它通过使用符号函数难以准确地将全精度值二值化的事实,使得我们获得了一组自适应的最优二进制集合,进一步提高了二值特征的表示能力。实验结果表明,AdaBin 在大量基准模型和数据集上达到了 state-of-the-art 的性能。
Aug, 2022