准确的二进制神经网络的前向和后向信息保留
本文介绍了一种名为 DIR-Net 的神经网络二值化方法,通过改进内部传播和引入外部表示来保留神经网络信息;采用信息最大化二值化(IMB)、分布敏感二段估计器(DTE)和表示对齐二值化感知蒸馏(RBD)等三项技术,该方法在 ResNet、VGG、EfficientNet、DARTS 和 MobileNet 等主流紧凑体系结构下实验表现优异,可在实际资源受限设备上实现存储节省和加速优化。
Sep, 2021
本篇论文提出一系列工程技术来改善二值化神经网络的准确性,包括更合适的激活函数、反向初始化、渐进式量化、网络叠加等,并在人体姿态估计和 ImageNet 大规模图像识别任务中验证了其优越性。此外,还首次探讨了二值化神经网络和知识蒸馏相结合的效果。
Apr, 2019
本文研究发现深度神经网络在训练时即使将权重量化并投影为二进制表示也能取得优秀的性能,而在测试阶段,这些网络对于除量化以外的扭曲,包括加性和乘性噪声以及一类非线性投影具有显著的鲁棒性。此外,我们还发现基本水平的鲁棒性可以通过调整或删除一个通用的训练启发式(即在反向传播过程中投影量化权重)来实现,包括使用其他类型的权重投影和简单地剪裁权重。最后,我们提出了一种随机投影规则,实现了无数据增强条件下 CIFAR-10 中 7.64% 的测试错误率的最新记录。
Jun, 2016
本文介绍了一种基于平衡二元神经网络和门控残差的二元神经网络方法 (BBG),针对其信息丢失问题,提出使用权重平衡二值化和门控残差结构来提高作用量的信息熵和防止信息丢失。经实验证明,BBG 方法在各种网络架构中表现出优异的性能,包括在分类和检测等任务上的表现,在记忆消耗、推断速度和准确性方面优于现有技术。
Sep, 2019
本文考虑使用权重量化压缩深度网络,将最近提出的有损权重二值化方案推广到三值化,并在前馈和循环神经网络上进行实验,发现该方案优于现有的权重量化算法,精度与全精度网络相当或更高。
Feb, 2018
本文提出了一种全二值化 BERT(BiBERT)模型,通过有效的双向 attention 结构来最大化表示信息的统计信息,并引入方向匹配蒸馏方案在 BERT 全二值化后准确优化,证明了比现有量化 BERT 性能更好,在计算资源有限的情况下可以显着节省 FLOPs(56.3 倍)和模型大小(31.2 倍)。
Mar, 2022
利用低精度的神经网络进行量化,可以通过减少内存消耗和优化位运算实现更高的效率。本文提出低精度神经网络的第三个优点是在一些对抗攻击中有更好的鲁棒性,最坏情况下的表现也可以与高精度模型媲美。作者着重于量化权重和激活到 +-1 的非缩放二进制神经网络,在黑盒和白盒实验中探究其应对逐步攻击的能力。该方法可以在不人为掩盖梯度的情况下保证模型的安全性。
Nov, 2017
本文提出了一种改进的训练方法来提高具有更高准确性的紧凑型二值化 CNN,其中可训练的权重和激活的比例因子被引入以增加值范围,并通过反向传播与其他参数一起进行训练。通过这些改进,与前人工作相比,本文二值化 CNN 在 CIFAR-10 上的准确度达到 92.3%,在 ImageNet 上,我们的方法用 AlexNet 获得 46.1%的 top-1 准确度,用 Resnet-18 获得 54.2%的 top-1 准确度。
Sep, 2019