本研究提出了一种针对二进制网络的新型搜索体系结构,并定义了二进制层类型的新搜索空间和新的单元模板。使用零化层的新搜索目标使得搜索优良性能的二进制体系结构变得更加多样化,并在量化误差固有的二进制网络中实现稳定的训练曲线。本研究的搜索结果表明其超越了现有二进制网络的架构,并且在采用各种其他技术而非架构改变的状态下,性能明显提高。
Feb, 2020
本研究提出了使用进化搜索来促进 MobileNet 的二值化设计和训练方案,通过操作组卷积的想法来设计高效的 1 位卷积神经网络,从而探索最佳的候选组卷积,以优化模型性能,并在 ImageNet 上进行了各种实验,展示了我们的构建指南,最终模型在相同计算成本下超越了现有技术。
May, 2020
研究二进制神经网络的训练策略和在移动和嵌入式设备上应用的性能,通过采用一种更简单的训练策略,成功提高了二进制神经网络的性能并在标准数据集上取得了最新成果,还成功将具有密集连接的网络架构引入二进制网络领域。
Dec, 2018
该论文提出了一种基于单元的搜索方法,通过为二进制网络定义新的搜索空间和新的搜索目标,重新定义二进制层类型,设计一种新的单元模板,提出使用 Zeroise 层来代替占位符,并进一步提出了改进我们搜索到的体系结构的训练方案。经过定量分析,实验结果表明,与采用其他技术的现有二进制网络相比,使用该方法搜索的体系结构性能更好且训练曲线更加稳定,通过新的训练方案进一步提升了性能并在二进制网络中实现了领先的表现。
Oct, 2021
研究二进制神经网络在移动设备等低计算能力设备上的训练过程,并探索网络结构、超参数等因素对于准确性的影响,提高了二进制神经网络的训练精度。
Sep, 2018
本文引入了一种新颖的方案来训练二值卷积神经网络,使用多个二元权重基的线性组合逼近完全精度权重,并采用多个二元激活来减轻信息丢失的问题,最终实现了一个二值卷积神经网络(ABC-Net),能够在适当的二元权重和激活函数基础上,取得与全精度神经网络相当的预测准确性。
Nov, 2017
本文提出了一种基于转移学习的架构,首先在 Imagenet 上训练二元网络,然后重新训练网络的部分部分用于不同的任务,同时保持网络的大部分部分固定。
本文提出了一种改进的训练方法来提高具有更高准确性的紧凑型二值化 CNN,其中可训练的权重和激活的比例因子被引入以增加值范围,并通过反向传播与其他参数一起进行训练。通过这些改进,与前人工作相比,本文二值化 CNN 在 CIFAR-10 上的准确度达到 92.3%,在 ImageNet 上,我们的方法用 AlexNet 获得 46.1%的 top-1 准确度,用 Resnet-18 获得 54.2%的 top-1 准确度。
Sep, 2019
本文提出了一种名为 JASQ 的方法,将神经网络的架构设计与模型压缩两项任务整合到统一框架中,可在考虑模型大小与性能准确性之间的平衡点上使用多目标进化算法搜索,实现高性能适合移动设备的紧凑神经网络模型。实验结果表明,该方法在搜索架构或仅搜索量化策略时优于现有方法。
Nov, 2018
本文提出了通过利用微分方法来搜索离散权重的概率分布并在训练过程中进行优化,以建立所需的量化神经网络,该方法在图像分类和超分辨率任务上表现明显优于现有的最先进方法。
Sep, 2020