基于对比学习的网络二值化
本篇论文提出一系列工程技术来改善二值化神经网络的准确性,包括更合适的激活函数、反向初始化、渐进式量化、网络叠加等,并在人体姿态估计和 ImageNet 大规模图像识别任务中验证了其优越性。此外,还首次探讨了二值化神经网络和知识蒸馏相结合的效果。
Apr, 2019
本文提出二值化神经网络模型的精度问题,并指出通过不平衡激活分布以及调整二值激活函数的阈值,可以在不改变其他结构的情况下提高二值神经网络模型的精度。
Dec, 2020
本文提出了一种新的二进制神经网络构架 MeliusNet,采用 “密集块 + 改进块” 交替的方式可以增加特征容量和特征质量,通过在 ImageNet 数据集上的实验,证明了该构架可以在操作数、精度以及计算效率上大幅提高,代码已公开发布。
Jan, 2020
本文提出了一种名为 AdaBin 的自适应二值化方法,它通过使用符号函数难以准确地将全精度值二值化的事实,使得我们获得了一组自适应的最优二进制集合,进一步提高了二值特征的表示能力。实验结果表明,AdaBin 在大量基准模型和数据集上达到了 state-of-the-art 的性能。
Aug, 2022
本篇论文介绍了一种通过二值化权重和激活训练神经网络的方法,并在 Torch7 和 Theano 框架上进行了实验,在 MNIST、CIFAR-10 和 SVHN 数据集上取得了接近最佳水平的结果。同时,作者提出了一种二进制矩阵乘法 GPU 核函数,使得 MNIST BNN 可以比优化前快 7 倍,而不影响分类准确性。
Feb, 2016
本文提出了一种改进的训练方法来提高具有更高准确性的紧凑型二值化 CNN,其中可训练的权重和激活的比例因子被引入以增加值范围,并通过反向传播与其他参数一起进行训练。通过这些改进,与前人工作相比,本文二值化 CNN 在 CIFAR-10 上的准确度达到 92.3%,在 ImageNet 上,我们的方法用 AlexNet 获得 46.1%的 top-1 准确度,用 Resnet-18 获得 54.2%的 top-1 准确度。
Sep, 2019
本文介绍了一种名为 DIR-Net 的神经网络二值化方法,通过改进内部传播和引入外部表示来保留神经网络信息;采用信息最大化二值化(IMB)、分布敏感二段估计器(DTE)和表示对齐二值化感知蒸馏(RBD)等三项技术,该方法在 ResNet、VGG、EfficientNet、DARTS 和 MobileNet 等主流紧凑体系结构下实验表现优异,可在实际资源受限设备上实现存储节省和加速优化。
Sep, 2021
本论文探讨了将二值化技术应用于图神经网络的方法,并成功设计了能够在 Hamming 空间内快速构建动态图的模型,实现了在准确性轻微损失的代价下在嵌入式设备上取得了显著的存储空间和时间扩展的效果。
Dec, 2020
本研究关注二值神经网络的训练精度问题,提出了一些新的设计原则,设计出了一种新的二值神经网络体系结构 BinaryDenseNet,并在 ImageNet 数据集上获得 18.6% 和 7.6% 的精度改进。
Jun, 2019
研究提出了一个名为 FracBNN 的新型二进制神经网络模型,利用分数激活方法,通过双精度激活方案和新型冷却器编码等技术解决旧模型在现实数据集(如 ImageNet)表现不佳的问题。FracBNN 可以实现同等规模的 MobileNetV2 的精准率,且模型尺寸减少了 2.5 倍。在嵌入式 FPGA 设备上,FracBNN 显示出实时图像分类的能力。
Dec, 2020