本研究使用 LR-nets(局部重参数网络)的方法,通过对神经网络加入离散权重的简单修改,对于 MNIST、CIFAR-10 和 ImageNet 数据集进行测试,表明用离散权重的二进制和三进制模型在大部分实验中能够取得最先进的结果。
Oct, 2017
本文提出使用二进制权重和激活的神经网络的概率训练方法 - BLRNet,通过随机性避免了对 sign () 等不可微函数的梯度的逼近,并仍在测试时获得完全的二进制神经网络。 此外,它允许通过从权重分布中进行抽样来进行任时集成预测以提高性能和不确定性估计。我们在多个标准基准上评估了 BLRNet。
Sep, 2018
本篇论文提出一系列工程技术来改善二值化神经网络的准确性,包括更合适的激活函数、反向初始化、渐进式量化、网络叠加等,并在人体姿态估计和 ImageNet 大规模图像识别任务中验证了其优越性。此外,还首次探讨了二值化神经网络和知识蒸馏相结合的效果。
Apr, 2019
本文介绍了一种基于近端牛顿算法的深度神经网络权重二值化方法,能够直接最小化权重二值化时的损失函数,相对于现有的方法表现更好,尤其适用于深度网络和循环神经网络。
Nov, 2016
本文提出使用分布损失来规范激活流,成功改善了二值神经网络训练中遇到的退化、饱和和梯度失配等问题,并在不影响其能量效率的同时,提高了其准确性。此外,该规范化方法还能使训练过程更加稳健。
本文提出了一种改进的训练方法来提高具有更高准确性的紧凑型二值化 CNN,其中可训练的权重和激活的比例因子被引入以增加值范围,并通过反向传播与其他参数一起进行训练。通过这些改进,与前人工作相比,本文二值化 CNN 在 CIFAR-10 上的准确度达到 92.3%,在 ImageNet 上,我们的方法用 AlexNet 获得 46.1%的 top-1 准确度,用 Resnet-18 获得 54.2%的 top-1 准确度。
Sep, 2019
研究二值化训练和量化方法在神经网络训练中的应用,通过在 MNIST、CIFAR10、SVHN 三个数据集上的实验证明,这种方法不仅不会降低分类性能,反而可以实现比标准随机梯度下降训练更好的性能
Oct, 2015
本篇论文介绍了一种通过二值化权重和激活训练神经网络的方法,并在 Torch7 和 Theano 框架上进行了实验,在 MNIST、CIFAR-10 和 SVHN 数据集上取得了接近最佳水平的结果。同时,作者提出了一种二进制矩阵乘法 GPU 核函数,使得 MNIST BNN 可以比优化前快 7 倍,而不影响分类准确性。
Feb, 2016
本文提出了三种实用方法来优化低精度深度卷积神经网络,包括渐进式量化、随机量化以及联合知识蒸馏来提高网络训练。通过实验证明,该方法在各种数据集上表现良好。
Aug, 2019
本文引入了一种新颖的方案来训练二值卷积神经网络,使用多个二元权重基的线性组合逼近完全精度权重,并采用多个二元激活来减轻信息丢失的问题,最终实现了一个二值卷积神经网络(ABC-Net),能够在适当的二元权重和激活函数基础上,取得与全精度神经网络相当的预测准确性。
Nov, 2017