本文介绍一种训练自我二值化神经网络的方法,通过使用平滑激活函数代替符号激活函数,减少二值化过程中的优化难度,同时还提出了一种简化二值批归一化的方法,实现了比传统浮点和二值网络更低的内存和计算消耗以及更高的分类准确率。
Feb, 2019
本文提出了一种新的正则化函数和可训练缩放因子的二进制训练方法,通过改进梯度下降算法中的反向传播计算,在 ImageNet 数据集上比传统二进制神经网络和 XNOR-net 有更好的性能表现。
Dec, 2018
通过数学形态学(MM)实现全结合卷积神经网络(ConvNets)的二值化,并提出两种新的近似方法以及鲁棒的理论框架来改进其优化。同时,引入正则化损失以提高网络的性能。
Jan, 2024
本篇论文提出一系列工程技术来改善二值化神经网络的准确性,包括更合适的激活函数、反向初始化、渐进式量化、网络叠加等,并在人体姿态估计和 ImageNet 大规模图像识别任务中验证了其优越性。此外,还首次探讨了二值化神经网络和知识蒸馏相结合的效果。
Apr, 2019
本文综述了二值神经网络中直接二值化和优化二值化两种算法,其中优化二值化采用了诸如最小化量化误差、改进神经网络损失函数、减少梯度误差等技术来解决二值化不可避免的严重信息损失和优化难题;同时对硬件友好设计和训练技巧等实用方面也进行了讨论,最后对图像分类、目标检测和语义分割等不同任务进行了评估和讨论,并展望了未来研究中可能面临的挑战。
Mar, 2020
本文介绍了一种使用对比学习和最大化互信息的方法来使用二进制神经网络实现更好的分类和分割结果,以减少因为二值化操作而导致的信息丢失。
Jul, 2022
本文提出了一种改进二进制网络的方法,包括通过 RSign 和 RPReLU 实现激活分布变化的显式学习,以及采用分布损失进一步加强二进制网络的训练,通过这些方法,在不增加计算成本的情况下,将二进制网络精度提高到了比现有二进制网络更高的水平,并将其与实值网络的精度差距降至 3.0%以内。
本研究旨在提出一种基于二进制系统的深度神经网络,该网络可以大幅减少计算资源和存储空间的使用,从而可在各种设备上使用,并通过实验验证了该网络的可行性。
Feb, 2016
该研究介绍了一种利用梯度下降学习离散布尔值函数的可微分神经网络,该网络具有不可微分的硬网络和可微分的软网络,可以通过后向传播算法进行训练。在实验中,该网络展现了可比较的性能,同时由于使用了 1 比特权重的方式,紧凑并且具有解释性。
May, 2023
本文从学习的角度对神经网络中的二值化操作进行了形式化描述,并提出了一种从全精度神经元映射到目标二进制神经元的映射方法,其采用了一种无偏估计方法以减轻监督噪声的影响,实验证明该二值化技术能够优于基准方法。
Oct, 2020