AAAISep, 2017

任意深度残差神经网络可逆架构

TL;DR本研究将深度残差网络解释为普通微分方程,并由此开发出一种稳定和可逆的深度神经网络理论框架,以及提出了三种可任意加深的可逆神经网络架构,实现了对深度网络的记忆高效实现,并且通过实验证明了本文方法在 CIFAR-10,CIFAR-100 和 STL-10 等数据集上取得了明显的优于现有强基准的性能表现,并且能够通过使用更少的训练数据来训练神经网络。