贝叶斯优化的 1 比特卷积神经网络
提出了基因二元卷积神经网络(Genetic Binary Convolutional Networks,GBCN),并利用一种新的平衡遗传算法(balanced Genetic Algorithm,BGA)解决了 1 位深度卷积神经网络(DCNNs)中存在的局部极小值问题,该方法在目标分类任务(CIFAR,ImageNet)上得到了验证,表现出强大的泛化性能。
Nov, 2019
本文提出一种名为修正二值卷积网络(RBCNs)的优化二值卷积神经网络的方法,通过结合全精度卷积核和特征图在统一框架内实现二值化过程的校正,并使用生成对抗网络(GAN)以其相应的全精度模型为指导来训练 1 位二进制网络,从而显著提高了 BCNN 的性能。该方法的可塑性强,并可轻松纳入现有的 DCNN 中,如 WideResNets 和 ResNets。大量实验表明,所提出的 RBCNs 比最先进的 BCNNs 具有优越的性能,并在物体跟踪任务中显示了强大的泛化能力。
Aug, 2019
现有的连续学习解决方案只在将深度学习模型部署在低功率嵌入式 CPU 上时部分地解决了功耗、内存和计算的限制。本文提出了一种连续学习解决方案,它结合了连续学习领域的最新进展和二值神经网络(BNN)的高效性,该网络使用 1 位用于权重和激活以高效执行深度学习模型。我们提出了一种混合量化的 CWR*(一种有效的连续学习方法),它在前向和反向传播时考虑了不同的因素,以保留在梯度更新步骤和最小化延迟开销时的更高精度。选择二值网络作为基础是满足低功率设备限制的关键,据作者所知,这是首次尝试证明使用 BNN 进行设备上学习的方法。进行的实验验证了所提方法的有效性和适用性。
Aug, 2023
本文提出了一种改进的训练方法来提高具有更高准确性的紧凑型二值化 CNN,其中可训练的权重和激活的比例因子被引入以增加值范围,并通过反向传播与其他参数一起进行训练。通过这些改进,与前人工作相比,本文二值化 CNN 在 CIFAR-10 上的准确度达到 92.3%,在 ImageNet 上,我们的方法用 AlexNet 获得 46.1%的 top-1 准确度,用 Resnet-18 获得 54.2%的 top-1 准确度。
Sep, 2019
本研究关注二值神经网络的训练精度问题,提出了一些新的设计原则,设计出了一种新的二值神经网络体系结构 BinaryDenseNet,并在 ImageNet 数据集上获得 18.6% 和 7.6% 的精度改进。
Jun, 2019
本文提出了基于投影的卷积神经网络(PCNNs),使用离散的反向传播来提高二值神经网络(BNNs)的性能,并在 ImageNet 和 CIFAR 数据集上实现了比其他最先进的 BNNs 更好的分类性能。
Nov, 2018
本文研究了一比特卷积神经网络,通过使用 Bi-Real net 和新颖的训练算法来提高其表现能力和训练困难性,并在 ImageNet 上获得了 56.4%的 top-1 分类准确性,比现有技术提高了 10%以上。
Nov, 2018
提出了 Bi-Real net 模型,它采用了一种新的训练算法来提高 1-bit CNNs 对大规模数据集 ImageNet 分类的性能,并在 18 层和 34 层下达到了 56.4% 和 62.2% 的 top-1 准确率。
Aug, 2018
通过在 CNN 的内核上建立概率分布,使用伯努利变分分布来近似模型的不可切合后验,并将 dropout 网络训练视为 Bayesian 神经网络中的近似推理。相比于标准技术,我们的模型在小数据上具备更好的鲁棒性,并在 CIFAR-10 上的分类准确率上取得了发表的最新结果的显著改善。
Jun, 2015
我们提出了一种用于训练 Bit Fully Convolutional Network(BFCN)的方法,在训练完一个低比特宽度的权重和激活的全卷积神经网络之后,并使用有效率的比特卷积实现进行加速,结果显示,我们使用的 BFCN 在 PASCAL VOC 2012 语义分割任务和 Cityscapes 上均能获得比 32 位计算相当的性能,并且与 32 位对照组相比,可以在 CPU 上提高 7.8 倍的性能或在 FPGA 上使用不到 1%的资源。
Dec, 2016