数据集量化
本文提出了两种新的模型压缩方法:量化蒸馏和可微量化。两种方法在卷积和循环体系结构上的实验结果表明,在资源受限的环境中,量化浅层神经网络可以达到与全精度模型相似的准确性水平,同时提供数量级压缩和推断加速。
Feb, 2018
本文提出了一种无需数据的对抗知识蒸馏,通过合成数据来实现数据自由的网络量化,包括多个生成器和多个学生的多样化对抗样本,实现了 (wide) residual networks 和 MobileNet 在 SVHN、CIFAR-10、CIFAR-100 和 Tiny-ImageNet 数据集上最先进的数据自由模型压缩和量化效果。
May, 2020
数据无关量化方法的统计数据不均衡问题限制了其在神经网络压缩方面的应用;本文提出了 Diverse Sample Generation(DSG)方法以在分布和样本层面缓解这一问题,其可以应用于当前一些最先进的量化方法中,如 AdaRound。在大规模图像分类任务上,经过合成数据校准的模型的性能可以达到通过真实数据校准的模型的性能,甚至在一些情况下表现更好。
Mar, 2021
本论文提出三种从训练模型中生成合成样本的方法,用于压缩和微调量化模型,不需要真实数据支持,可以用于数据敏感情况,最佳方法与原始训练样本相比具有可忽略的准确度下降,此方法利用训练模型的内在批归一化层统计信息,可用于评估数据之间的相似性,为真正的数据无损模型压缩打开了道路,并在模型部署过程中减轻了对训练数据的需求。
Dec, 2019
本文提出了一种全新的可完全微分的非均匀量化器,在轻量级神经网络(如 MobileNetV1,MobileNetV2 和 ShuffleNetV2)上取得了最优的准确性 - 复杂度平衡,并成功地解决了将神经网络部署到资源受限设备上的问题。
Jul, 2020
本文提出了一种名为 ZeroQ 的新型零 - shot 量化框架,用于量化神经网络而无需访问原始数据,ZeroQ 通过优化一个与网络不同层的批量归一化统计数据相匹配的 Distilled Dataset 来实现。我们在不同的模型上进行了广泛测试,证明 ZeroQ 可以实现比 DFQ 方法更高的精度,具有极低的计算开销。
Jan, 2020
本文提出了一种简单而有效的方法,叫做生成式低比特数据无关量化 (GDFQ),通过使用预训练模型中的分类边界知识和分布信息,利用知识匹配生成器生成有意义的虚假数据,从而消除数据依赖负担,来量化模型。在三个数据集上的广泛实验证明了本方法的有效性,并且在 4 位量化上的精确性要比现有的数据无关量化方法高得多。
Mar, 2020
通过提出动态量化压缩算法 DynaQuant,实现 DL 工作负载的检查点压缩,有效减少了检查点存储开销,并能够在保持模型准确性的前提下最大化压缩比,从而在传输学习等应用中实现了数量级的提升。
Jun, 2023
神经网络量化是通过使用低比特近似来加速和剪裁全精度神经网络模型的过程。本文提出了一种新颖且高效的量化感知训练方法,即量化特征蒸馏(QFD),通过首先训练一个量化(或二值化)的教师表示,然后使用知识蒸馏(KD)来量化网络。定量结果表明,QFD 比之前的量化方法更加灵活和有效(即量化友好),在图像分类和目标检测任务上明显优于现有方法,同时又更为简单。此外,QFD 对 MS-COCO detection 和 segmentation 中的 ViT 和 Swin-Transformer 进行了量化验证,从而验证了其在实际部署中的潜力。据我们所知,这是第一次将视觉变换器量化应用于目标检测和图像分割任务。
Jul, 2023
提出了一种无需训练集的知识蒸馏方法,仅利用预训练模型释放的一些额外元数据,就能将大规模数据集上训练的深度神经网络压缩到其大小的一小部分,并探索了可用于该方法的不同类型的元数据以及使用它们所涉及的权衡。
Oct, 2017