Jun, 2020

全局单射 ReLU 网络

TL;DR本文探讨了深度神经网络中全连接和卷积层的可逆性和稳定性,指出了扩张性因子对网络可逆性的必要性和充分性,证明了任何 Lipschitz 映射都可以近似为可逆的 ReLU 网络,并提出了一个基于随机投影的全局可逆性模型。