关键词memory-efficient implementation
搜索结果 - 2
- 基于压缩潜在重放的轻量级脉冲神经网络的持续学习
基于回顾的持续学习在深度神经网络中被广泛研究,然而在脉冲神经网络中的应用尚未深入探索。本文介绍了第一种用于脉冲神经网络的内存高效实现的潜在重放(LR)- 基于回顾持续学习,旨在与资源受限设备无缝集成。实验结果表明,在 Heidelberg - AAAI任意深度残差神经网络可逆架构
本研究将深度残差网络解释为普通微分方程,并由此开发出一种稳定和可逆的深度神经网络理论框架,以及提出了三种可任意加深的可逆神经网络架构,实现了对深度网络的记忆高效实现,并且通过实验证明了本文方法在 CIFAR-10,CIFAR-100 和 S