正则化二进制网络训练
本文提出使用分布损失来规范激活流,成功改善了二值神经网络训练中遇到的退化、饱和和梯度失配等问题,并在不影响其能量效率的同时,提高了其准确性。此外,该规范化方法还能使训练过程更加稳健。
Apr, 2019
本研究关注二值神经网络的训练精度问题,提出了一些新的设计原则,设计出了一种新的二值神经网络体系结构 BinaryDenseNet,并在 ImageNet 数据集上获得 18.6% 和 7.6% 的精度改进。
Jun, 2019
本篇论文介绍了一种通过二值化权重和激活训练神经网络的方法,并在 Torch7 和 Theano 框架上进行了实验,在 MNIST、CIFAR-10 和 SVHN 数据集上取得了接近最佳水平的结果。同时,作者提出了一种二进制矩阵乘法 GPU 核函数,使得 MNIST BNN 可以比优化前快 7 倍,而不影响分类准确性。
Feb, 2016
本文介绍一种训练自我二值化神经网络的方法,通过使用平滑激活函数代替符号激活函数,减少二值化过程中的优化难度,同时还提出了一种简化二值批归一化的方法,实现了比传统浮点和二值网络更低的内存和计算消耗以及更高的分类准确率。
Feb, 2019
本文介绍了一种对二值化神经网络进行训练的方法,并在 Torch7 和 Theano 两个框架下,对 MNIST、CIFAR-10 和 SVHN 数据集进行了实验,取得了近乎领先水平的结果。通过在前向传递过程中使用二值化的权重和激活值,可以大幅减少内存消耗,用位运算取代大多数算术运算,并且使用二进制矩阵乘法 GPU 内核可以比未优化的 GPU 内核快 7 倍,而不会损失分类准确度。
Feb, 2016
本文提出了一种改进的训练算法,用于针对二元神经网络的权重和激活二进制数的训练,提出了一种新的比 XNOR-Net 更优的方法,通过反向传播学习判别式融合激活和权重缩放因子。实验表明,与分析计算的结果相比,我们的方法更加准确,且在相同的计算预算下,可在 ImageNet 分类任务中提供高达 6% 的准确性提升。
Sep, 2019
该论文提出了一种新的更一般的二进制域,扩展了标准二进制域,并且更适合剪枝技术,在保证性能的同时提高了压缩率,这种方法与其他修剪策略相结合可以生成高效稀疏网络,并减少内存使用和运行时间延迟。
Jun, 2023
通过提出一种基于二进制值的神经网络训练方法 (BNN),实现了通过基本的比特逻辑实现神经网络的前向传递。在资源受限的环境中,BNN 可以取代浮点数运算,减少存储空间占用、内存带宽、以及硬件能耗。同时,我们提出了权重压缩和噪声反向传播等训练技术,生成功能基本与实数网络相当的 BNN。通过在 MNIST 数据集上进行实验,我们证明了 BNN 表现出竞争性的性能并节省大量计算资源。
Jan, 2016
BitNet 是一种基于 Minimum Description Length (MDL) 原则,通过动态限制网络参数的可取范围和值,优化训练神经网络的方法, 在 MNIST 和 CIFAR-10 数据集上通过优化实数值翻译和缩放因子以及任意精度整型参数,BitNet 比等效的非正则化模型更快地收敛生成了质量更高且内存消耗更小的模型。
Aug, 2017
本文提出了一种名为 AdaBin 的自适应二值化方法,它通过使用符号函数难以准确地将全精度值二值化的事实,使得我们获得了一组自适应的最优二进制集合,进一步提高了二值特征的表示能力。实验结果表明,AdaBin 在大量基准模型和数据集上达到了 state-of-the-art 的性能。
Aug, 2022