Nov, 2015
深度神经网络为什么是可逆的:一个简单的理论,以及对训练的影响
Why are deep nets reversible: A simple theory, with implications for
training
TL;DR本文简单证明根据生成模型产生的反向网络是正确的推理方法。在一个简单的生成模型中,证明前向神经网络是正确的推理方法,它通过实验证明了像AlexNet这样的现实的深度神经网络的边缘权重的行为类似于随机数。它利用生成模型来产生带有标签的合成数据,并将其包含在训练集中,为深度学习提供改进和标准训练方法。