二值化深度神经网络在图像分类中的研究
本文综述了二值神经网络中直接二值化和优化二值化两种算法,其中优化二值化采用了诸如最小化量化误差、改进神经网络损失函数、减少梯度误差等技术来解决二值化不可避免的严重信息损失和优化难题;同时对硬件友好设计和训练技巧等实用方面也进行了讨论,最后对图像分类、目标检测和语义分割等不同任务进行了评估和讨论,并展望了未来研究中可能面临的挑战。
Mar, 2020
研究二进制神经网络的训练策略和在移动和嵌入式设备上应用的性能,通过采用一种更简单的训练策略,成功提高了二进制神经网络的性能并在标准数据集上取得了最新成果,还成功将具有密集连接的网络架构引入二进制网络领域。
Dec, 2018
本篇论文提出一系列工程技术来改善二值化神经网络的准确性,包括更合适的激活函数、反向初始化、渐进式量化、网络叠加等,并在人体姿态估计和 ImageNet 大规模图像识别任务中验证了其优越性。此外,还首次探讨了二值化神经网络和知识蒸馏相结合的效果。
Apr, 2019
本文提出了一种用于意图分类任务的端到端二值化神经网络架构,包括对输入和分类器的二值化。实验结果表明,该架构在三个数据集上实现了具有可比性的结果,并且使用的内存和训练时间相对较少,可以适用于受限的设备。
Oct, 2020
本文介绍了一种对二值化神经网络进行训练的方法,并在 Torch7 和 Theano 两个框架下,对 MNIST、CIFAR-10 和 SVHN 数据集进行了实验,取得了近乎领先水平的结果。通过在前向传递过程中使用二值化的权重和激活值,可以大幅减少内存消耗,用位运算取代大多数算术运算,并且使用二进制矩阵乘法 GPU 内核可以比未优化的 GPU 内核快 7 倍,而不会损失分类准确度。
Feb, 2016
本文介绍了一种利用 MobileNet 二值化来进行激活函数和模型权重处理的简单而高效的方案,同时提出了一个新的神经网络结构 MoBiNet,通过跳连接来防止信息丢失和梯度消失,以便更好地进行训练,并在 ImageNet 数据集上进行了实验。结果表明,MoBiNet 在大大减少计算成本的情况下,实现了 54.40%的 top-1 准确率和可比较的准确性。
Jul, 2019
本论文探讨了将二值化技术应用于图神经网络的方法,并成功设计了能够在 Hamming 空间内快速构建动态图的模型,实现了在准确性轻微损失的代价下在嵌入式设备上取得了显著的存储空间和时间扩展的效果。
Dec, 2020
本文全面评述了二值神经网络(BNN)的发展历程,从祖先算法到最新算法 / 技术,提出了一种广泛的设计流程,并讨论了每个模块的变体。此外,还介绍了 BNN 的应用,以及其潜在的发展方向和未来研究机会。
Oct, 2021