BitNet: 比特正则化深度神经网络
本文提出了一种新的正则化函数和可训练缩放因子的二进制训练方法,通过改进梯度下降算法中的反向传播计算,在 ImageNet 数据集上比传统二进制神经网络和 XNOR-net 有更好的性能表现。
Dec, 2018
本文研究了一比特卷积神经网络,通过使用 Bi-Real net 和新颖的训练算法来提高其表现能力和训练困难性,并在 ImageNet 上获得了 56.4%的 top-1 分类准确性,比现有技术提高了 10%以上。
Nov, 2018
通过提出一种基于二进制值的神经网络训练方法 (BNN),实现了通过基本的比特逻辑实现神经网络的前向传递。在资源受限的环境中,BNN 可以取代浮点数运算,减少存储空间占用、内存带宽、以及硬件能耗。同时,我们提出了权重压缩和噪声反向传播等训练技术,生成功能基本与实数网络相当的 BNN。通过在 MNIST 数据集上进行实验,我们证明了 BNN 表现出竞争性的性能并节省大量计算资源。
Jan, 2016
BitNet 是一种可扩展且稳定的 1 位 Transformer 架构,用于大型语言模型,通过引入 BitLinear 作为 nn.Linear 层的替代方案,BitNet 可以从零开始训练 1 位权重,实验结果表明,与最先进的 8 位量化方法和 FP16 Transformer 相比,BitNet 在语言建模方面能够达到有竞争力的性能,同时大幅减少内存占用和能源消耗,此外,BitNet 表现出与全精度 Transformer 类似的扩展规律,说明它具有在保持高效和性能优势的同时,有效扩展到更大的语言模型的潜能。
Oct, 2023
介绍了一种学习表示神经网络权重的个别位的算法,允许对任意位深度的整数值进行训练,无需额外的约束或正则化技术,自然地发现了稀疏网络。证明了在选择性地训练位的情况下,实现高准确度的最大贡献来自前三位最重要的位,而其余位则提供内在的正则化。因此,可以使用超过 90%的网络存储任意代码,例如随机噪声,二进制文件或甚至先前训练的网络的权重。
Feb, 2022
本文提出使用分布损失来规范激活流,成功改善了二值神经网络训练中遇到的退化、饱和和梯度失配等问题,并在不影响其能量效率的同时,提高了其准确性。此外,该规范化方法还能使训练过程更加稳健。
Apr, 2019
本文提出使用二进制权重和激活的神经网络的概率训练方法 - BLRNet,通过随机性避免了对 sign () 等不可微函数的梯度的逼近,并仍在测试时获得完全的二进制神经网络。 此外,它允许通过从权重分布中进行抽样来进行任时集成预测以提高性能和不确定性估计。我们在多个标准基准上评估了 BLRNet。
Sep, 2018
本篇论文介绍了一种通过二值化权重和激活训练神经网络的方法,并在 Torch7 和 Theano 框架上进行了实验,在 MNIST、CIFAR-10 和 SVHN 数据集上取得了接近最佳水平的结果。同时,作者提出了一种二进制矩阵乘法 GPU 核函数,使得 MNIST BNN 可以比优化前快 7 倍,而不影响分类准确性。
Feb, 2016
该研究介绍了一种利用梯度下降学习离散布尔值函数的可微分神经网络,该网络具有不可微分的硬网络和可微分的软网络,可以通过后向传播算法进行训练。在实验中,该网络展现了可比较的性能,同时由于使用了 1 比特权重的方式,紧凑并且具有解释性。
May, 2023