关键词resource-constrained environments
搜索结果 - 25
- AAAI任意风格迁移的动态实例规范化
本研究提出了新的、广义的标准化模块 ——Dynamic Instance Normalization(DIN),通过组成实例标准化和动态卷积将风格图像编码成可学习的卷积参数,从而实现了灵活且更高效的任意风格转移。实验结果表明,所提出的方法在 - 使用 Kronecker 乘积将 RNN 压缩 15-38 倍,用于 IoT 设备
本文介绍了一种使用 Kronecker 乘积(KP)的方法来压缩适用于资源受限环境中的循环神经网络(RNN),KP 可以使 RNN 层的压缩率达到 15-38x,并且通过将其量化为 8 位可以进一步提高压缩因子至 50 倍,同时提高推断运行 - ICLR基于蒸馏和量化的模型压缩
本文提出了两种新的模型压缩方法:量化蒸馏和可微量化。两种方法在卷积和循环体系结构上的实验结果表明,在资源受限的环境中,量化浅层神经网络可以达到与全精度模型相似的准确性水平,同时提供数量级压缩和推断加速。
- 剪枝还是不剪枝:探索模型压缩中剪枝的有效性
本文探讨在资源受限环境下,通过模型剪枝来压缩神经网络模型的方法,提出了一种简单、直接、易于应用的逐渐剪枝技术,并在多个模型 / 数据集上进行了比较,发现大型稀疏模型在保持较高精度的同时可减少 10 倍的参数数量。
- ICML位元神经网络
通过提出一种基于二进制值的神经网络训练方法 (BNN),实现了通过基本的比特逻辑实现神经网络的前向传递。在资源受限的环境中,BNN 可以取代浮点数运算,减少存储空间占用、内存带宽、以及硬件能耗。同时,我们提出了权重压缩和噪声反向传播等训练技